Skip to content

Storia dell’intelligenza artificiale: da Alan Turing a John McCarthy

storia-dell-intelligenza-artificiale-johnmccarthy

Per appassionati ed esperti di AI il team di Pigro ha deciso di ripercorrere, attraverso un viaggio “a puntate”, le tappe principali della storia delle “macchine intelligenti”, dalla prima definizione di intelligenza artificiale, ai suoi più recenti sviluppi. Questa è la prima!

Prima che l’IA avesse un nome – Alan Turing

Per raccontare la storia dell’intelligenza artificiale non basta risalire all’invenzione del termine. Dobbiamo spingerci ancora più indietro, agli esperimenti del matematico Alan Turing.

“Can machines think?” è l’incipit dell’articolo “Computing machinery and intelligence” che Alan Turing scrisse nel 1950 per la rivista Mind. Egli cerca di approfondire il tema di quella che, solo sei anni dopo, sarebbe stata chiamata Artificial Intelligence .

Lo fa utilizzando un test, conosciuto appunto come “Test di Turing” o “Imitation game”, inventato con lo scopo di paragonare intelligenza artificiale e intelligenza umana.

Ma come funziona? Il test è composto da tre partecipanti: l’intervistatore, un uomo e una donna. L’intervistatore, che non può vedere gli altri, deve cercare di scoprirne il sesso facendo delle domande, a cui loro risponderanno usando la telescrivente. 

Il tutto viene complicato ulteriormente dai ruoli assegnati all’uomo e alla donna: uno dei personaggi ha il compito di mentire mentre l’altro di essere sincero. 

Successivamente, uno dei partecipanti, uomo o donna, viene sostituito da un computer all’insaputa dell’intervistatore, che in questa seconda fase dovrà indovinare se sta parlando con un umano o una macchina.

Come si valuta se il test di Turing è superato? Se la percentuale di errore registrata con una macchina rimane uguale o inferiore a quella registrata con esseri umani, allora la macchina può essere definita intelligente e il test di Turing è superato.

Nel libro “Intelligenza artificiale. Guida al futuro prossimo” Jerry Kaplan afferma che Turing sia stato il primo ad attribuire la capacità di pensiero ai computer.

Parla, infatti, della simulazione macchina di Turing e spiega come, con il suo test, non stesse proponendo una modalità per determinare se le macchine fossero intelligenti o meno, ma “egli stava in realtà speculando che il nostro uso comune del termine pensare si sarebbe alla fine esteso fino a essere ampliato, in maniera appropriata, a certe macchine o programmi di capacità adeguata”.

Ancora oggi, il test di Turing è considerato uno dei pilastri della nascita dell'AI, a tal punto che tuttora esiste un riconoscimento annuale, il premio Loebner, che utilizza la macchina di Turing per premiare il bot con il comportamento più simile al pensiero umano. 

John McCarthy e l’intelligenza artificiale

Quando nasce ufficialmente l’AI? La definizione “intelligenza artificiale” viene utilizzata per la prima volta dall’allora assistente universitario di matematica John McCarthy, mosso dalla necessità di differenziare questo campo di ricerca dalla già nota cibernetica.

L’esigenza di creare questa scissione emerge particolarmente in occasione di un convegno sull’argomento, tenutasi nel 1956 al Dartmouth College (ad Hanover, New Hampshire), che McCarthy organizza insieme a tre colleghi: Nathan Rochester, Claude Shannon e Marvin Minsky.

McCarthy voleva un nuovo termine neutrale che potesse raccogliere e organizzare i vari sforzi di ricerca in un unico campo, incentrato sullo sviluppo di macchine in grado di simulare in tutto e per tutto l’intelligenza umana.

Viene presentato un documento di 17 pagine chiamato “proposta di Dartmouth” in cui, per la prima volta, si utilizza il termine “intelligenza artificiale”.

Il documento discute di alcuni temi che gli organizzatori ritenevano fondamentali per il campo di ricerca, come le reti neurali, la teoria della computabilità, la creatività e l’elaborazione del linguaggio naturale, motivando la necessità della conferenza con l’obiettivo di costruire delle “macchine intelligenti”, capaci di simulare ogni aspetto dell’intelligenza umana.

Secondo McCarthy e colleghi, infatti, sarebbe bastato descrivere nei minimi particolari una qualsiasi caratteristica dell’apprendimento umano, per poter poi dare queste informazioni ad una macchina, costruita per simularle.

I risultati della conferenza

Non è ben chiaro a quali risultati portò la conferenza, della quale non è mai stato nemmeno realizzato il rapporto conclusivo. Ma, come la definisce Kaplan nel libro “Intelligenza artificiale”: “si tratta forse del primo esempio di professionisti del settore che fanno previsioni e promesse eccessivamente ottimistiche a proposito degli obiettivi che sarebbero stati raggiunti e del tempo necessario per raggiungerli”. 

La conferenza di Dartmouth, però, aveva generato un forte entusiasmo per l’evoluzione tecnologica e ne conseguirono ricerche e innovazioni nel settore. 

Una di quelle più sorprendenti è stata realizzata dall’informatico statunitense Arthur Samuel che nel 1959 mette a punto il suo “giocatore di dama”, un programma ideato affinchè si auto-migliorasse fino a superare le abilità del creatore.

Per aumentare le sue capacità faceva un cosa impossibile per gli esseri umani: giocare contro sé stesso.

Samuel sceglie proprio il gioco della dama perchè le regole sono relativamente semplici, mentre le tattiche da utilizzare sono complesse, permettendo così di dimostrare come le macchine, a seguito di istruzioni fornite dai ricercatori, siano in grado di simulare le decisioni umane.

Svilluppa una funzione in grado di analizzare la posizione della dama in ogni istante della partita, provando a calcolare le possibilità di vittoria per ogni lato nella posizione attuale e agendo di conseguenza. Le variabili prese in considerazioni erano numerose, tra cui il numero di pezzi per lato, il numero di dame, e la distanza dei pezzi ‘mangiabili’. 

Arthur Samuel, inoltre, per dare un nome alle sue innovazioni tecnologiche nel campo dell’apprendimento automatico inventa il termine “machine learning”, identificandone due approcci distinti: della rete neurale e specifico. 

Il primo, l’approccio della rete neurale, approda allo sviluppo di macchine ad apprendimento automatico per impiego generale attraverso una rete di commutazione connessa casualmente, a seguito di una routine di apprendimento basata su azioni e ricompense: le azioni influenzano non solo la ricompensa immediata ma anche gli input, le azioni e le ricompense successive.

Approccio specifico, invece, come dice il nome, ha come obiettivo la riproduzione dell’equivalente di una rete altamente organizzata progettata per imparare solo alcune attività specifiche: è attraverso la supervisione e la riprogrammazione che raggiunge la massima efficienza dal punto di vista computazionale.

AI Intelligenza Artificiale come campo di ricerca indipendente

L’ideazione del test di Turing, prima, e la coniazione del termine, poi, hanno reso le intelligenze artificiali riconosciute come campo di ricerca indipendente, dando così una nuova definizione di tecnologia. 

A partire da quel momento l’AI è cresciuta esponenzialmente fino ad avverare le previsioni di Alan Turing: “ritengo che la domanda originale, ‘le macchine possono pensare?’, sia troppo priva di senso per meritare di essere discussa. Sono nondimeno convinto che alla fine del secolo l’uso delle parole e la generale opinione pubblica colta saranno cambiate così tanto che si potrà parlare di macchine che pensano senza timore di essere contraddetti“. 

Gli anni 50 sono stati fondamentali per l’AI. Ma questo è solo l’inizio!

Fonti: Jerry Kaplan, Intelligenza artificiale. Guida al futuro prossimo, 2017

 

Scopri cosa è accaduto degli anni ’60 e ’70: Storia dell’intelligenza artificiale: il machine learning e i sistemi esperti

 

Vuoi saperne di più su Pigro? Contattaci!