KINDLE HOME

Da Asimov a ChatGPT

La storia dell'Intelligenza Artificiale in aneddoti

Tempo di lettura: 15-20 minuti


Prologo: Il sognatore di Brooklyn

Per capire dove siamo, dobbiamo partire da un ragazzino russo in un negozio di dolciumi a Brooklyn.

Isaac Asimov nasce nel 1920 a Petrovichi, un paesino russo che oggi non esiste piu - e stato inglobato in un'altra citta. A tre anni la famiglia emigra in America, come milioni di altri ebrei dell'Europa dell'Est in quegli anni. Si stabiliscono a Brooklyn, New York.

I genitori aprono un negozio di dolciumi e giornali. Il piccolo Isaac cresce tra scaffali di caramelle e riviste. E qui che scopre la fantascienza: le riviste pulp con le copertine colorate, i racconti di mondi lontani e macchine impossibili.

C'e un dettaglio importante: i genitori sono severi, religiosi, e non vogliono che il figlio perda tempo con quelle "sciocchezze". Isaac deve leggere di nascosto. Forse e per questo che diventa cosi prolifico - sta recuperando il tempo perduto.

Studia chimica a Columbia, si laurea, fa il dottorato in biochimica. E uno scienziato, non un informatico. I computer ai suoi tempi occupavano stanze intere e funzionavano con schede perforate. La scheda del tuo microonde oggi ha piu potenza di calcolo del computer che trent'anni dopo avrebbe portato l'uomo sulla Luna.

Ma la mente di Asimov non e confinata nei laboratori di chimica. A 19 anni inizia a vendere racconti alle riviste di fantascienza. Nel 1941 scrive "Nightfall" (Notturno), su un pianeta con sei soli che vede il buio solo una notte ogni duemila anni. La storia di cosa succede a una civilta che non ha mai visto le stelle quando, improvvisamente, le vede tutte insieme. Diventa uno dei racconti di fantascienza piu famosi di sempre.

Le Tre Leggi

Ma la cosa per cui ce lo ricordiamo oggi sono i robot.

C'e un problema con i robot nella fantascienza degli anni '30 e '40: sono quasi sempre cattivi. Il robot che si ribella, che uccide il suo creatore, che minaccia l'umanita. E il mito di Frankenstein riciclato all'infinito.

Asimov trova questa ossessione noiosa e, francamente, stupida. Se costruisci una macchina, penso la costruirai con delle sicurezze, no? Non costruisci un'auto senza freni.

Cosi, nei suoi racconti sui robot - poi raccolti nel libro "Io, Robot" - si inventa una cosa che non esisteva: le Tre Leggi della Robotica.

Prima Legge: Un robot non puo recare danno a un essere umano ne puo permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.

Seconda Legge: Un robot deve obbedire agli ordini impartiti dagli esseri umani, purche tali ordini non contravvengano alla Prima Legge.

Terza Legge: Un robot deve proteggere la propria esistenza, purche questa autodifesa non contrasti con la Prima o con la Seconda Legge.

Sembrano semplici. Ma Asimov passa decenni a scrivere storie su tutti i modi in cui queste leggi possono creare paradossi, conflitti, situazioni impossibili. E se un robot deve scegliere tra salvare due persone? E se obbedire a un ordine causa danno indiretto? E se un robot impazzisce cercando di proteggere tutti gli umani contemporaneamente?

Le Tre Leggi non sono una soluzione. Sono un framework per pensare ai problemi. E questo e esattamente quello che ci serve oggi, ottant'anni dopo.

Pensateci: nel 1942 questo signore si stava gia chiedendo: "Se costruiamo macchine intelligenti, che regole gli diamo?"

Ah, e la parola "robotica"? L'ha inventata lui. Non esisteva prima. L'ha usata in un racconto del 1941 pensando che esistesse gia, e invece no - l'aveva creata lui.

Asimov muore nel 1992, a 72 anni. Non ha mai visto ChatGPT. Ma in un certo senso, aveva previsto tutto - comprese le domande che ancora non sappiamo come rispondere.


Atto I: L'Estate dell'Entusiasmo (1956-1969)

Dartmouth, 1956: Nasce tutto in un'estate

Quindici anni dopo che Asimov scrive le Tre Leggi, nell'estate del 1956, un gruppo di ricercatori si ritrova al Dartmouth College, nel New Hampshire.

Sono una decina, tutti giovani, tutti brillanti, tutti convinti di essere sul punto di cambiare il mondo. Tra loro ci sono nomi che diventeranno leggendari: John McCarthy (Stanford), Marvin Minsky (MIT), Claude Shannon (Bell Labs - quello della teoria dell'informazione), Allen Newell e Herbert Simon (Carnegie Mellon).

John McCarthy, che ha organizzato il workshop, deve trovare un nome per quello che stanno facendo. Propone "Artificial Intelligence" - Intelligenza Artificiale.

La proposta del workshop e incredibile nella sua ambizione. Vale la pena leggerla per intero:

"Proponiamo che uno studio di due mesi sull'intelligenza artificiale sia condotto durante l'estate del 1956 al Dartmouth College, Hanover, New Hampshire. Lo studio procedera sulla base della congettura che ogni aspetto dell'apprendimento o qualsiasi altra caratteristica dell'intelligenza possa in principio essere descritta cosi precisamente che una macchina possa essere fatta per simularla. Si tentera di scoprire come far usare alle macchine il linguaggio, formare astrazioni e concetti, risolvere tipi di problemi ora riservati agli umani, e migliorare se stesse. Crediamo che un progresso significativo possa essere fatto in uno o piu di questi problemi se un gruppo accuratamente selezionato di scienziati ci lavora insieme per un'estate."

Un'estate. Pensavano di risolvere l'intelligenza artificiale in un'estate.

Non ci riusciranno. Ma quello che nasce a Dartmouth e un campo di ricerca, una comunita, una visione condivisa. Per la prima volta, persone di discipline diverse - matematica, psicologia, ingegneria, filosofia - lavorano insieme sullo stesso problema: come costruire macchine che pensano?

Il Perceptron: La Marina, il New York Times, e l'armadio che impara

Due anni dopo Dartmouth, nel 1958, Frank Rosenblatt ha un'idea.

Rosenblatt e uno psicologo della Cornell University, ma il suo interesse e il cervello - come funziona, come impara, come riconosce il mondo. E ha un'ipotesi: forse possiamo costruire una macchina che impara allo stesso modo in cui impara il cervello.

Il cervello e fatto di neuroni. Ogni neurone riceve segnali da altri neuroni, li "pesa", e decide se attivarsi o no. Miliardi di questi neuroni, collegati tra loro, producono il pensiero.

Rosenblatt costruisce il Perceptron: una rete neurale artificiale. E una macchina grande come un armadio, con centinaia di cavi e connessioni. Puo "vedere" una griglia di 20x20 punti luminosi - 400 "occhi" artificiali.

E la cosa straordinaria e che impara. Mostri al Perceptron la lettera "A" cento volte, poi la lettera "B" cento volte, e alla fine sa distinguerle. Non perche qualcuno ha programmato le regole, ma perche ha imparato dai dati.

La Marina americana finanzia il progetto. Vedono applicazioni militari ovunque: riconoscimento di aerei nemici, lettura automatica di mappe, forse anche traduzione istantanea.

E il New York Times pubblica un articolo con questo titolo:

"La Marina rivela l'embrione di un computer che potra camminare, parlare, vedere, scrivere, riprodursi e avere coscienza della propria esistenza."

Rosenblatt stesso non aiuta a tenere basse le aspettative. In una conferenza stampa dichiara che il Perceptron sara in grado di "riconoscere le persone e chiamarle per nome, tradurre istantaneamente discorsi in altre lingue, scrivere musica originale". Entro pochi anni, dice.

Le promesse impossibili

L'entusiasmo e alle stelle. Tutti i pionieri dell'IA fanno previsioni audaci.

Herbert Simon, futuro premio Nobel per l'economia, nel 1965 predice:

"Entro vent'anni, le macchine saranno capaci di fare qualsiasi lavoro che un uomo puo fare."

Marvin Minsky, uno dei padri fondatori del campo, va oltre:

"Entro una generazione, il problema di creare un'intelligenza artificiale sara sostanzialmente risolto."

Nel 1970, Minsky dira a Life Magazine:

"Entro tre-otto anni avremo una macchina con l'intelligenza generale di un essere umano medio."

Sono passati cinquant'anni. Stiamo ancora aspettando.

1969: Il libro che uccide tutto

Nel 1969, lo stesso Marvin Minsky, insieme a Seymour Papert, pubblica un libro: "Perceptrons: An Introduction to Computational Geometry".

E un libro tecnico, pieno di matematica. Ma il suo messaggio e devastante: i Perceptron, le reti neurali di Rosenblatt, hanno limiti fondamentali.

Il problema piu famoso e lo XOR - "exclusive or" - una semplice operazione logica. Acceso O acceso, ma non entrambi. Una cosa banale. E i Perceptron non riescono a impararla. Non e un bug, e un limite matematico dell'architettura.

Minsky e Papert non dicono che le reti neurali sono inutili per sempre. Dicono che servono reti piu complesse, a piu livelli. Ma nessuno legge le sfumature. Il messaggio che passa e: le reti neurali non funzionano.

I finanziamenti spariscono. I ricercatori cambiano campo. I dottorandi vengono avvisati: se vuoi una carriera accademica, stai lontano dalle reti neurali.

Frank Rosenblatt muore nel 1971, in un incidente in barca, nel giorno del suo compleanno. Ha 43 anni. Il suo Perceptron finisce in un magazzino del Smithsonian.


Atto II: Gli Inverni dell'IA (1970-2010)

Il primo inverno: Quando l'IA diventa una parolaccia

Negli anni '70, la parola "Intelligenza Artificiale" diventa tossica.

I ricercatori che ci lavorano smettono di usarla. Troppo associata a promesse non mantenute, a fondi sprecati, a previsioni ridicole. Se vuoi un finanziamento, non dici che stai lavorando sull'"intelligenza artificiale". Dici che stai lavorando sul "riconoscimento di pattern" o sui "sistemi basati sulla conoscenza" o sull'"elaborazione del linguaggio naturale".

Nel 1973, il governo britannico commissiona un rapporto sullo stato dell'IA. Il risultato e il Rapporto Lighthill, che demolisce il campo:

"In nessuna parte del campo sono state scoperte quelle capacita potenti di generalizzazione che sono associate al termine 'intelligenza artificiale'."

I finanziamenti britannici vengono tagliati. Negli Stati Uniti, DARPA (l'agenzia di ricerca della Difesa) riduce drasticamente i fondi per l'IA.

I ricercatori rimasti si rifugiano in nicchie: sistemi esperti, logica formale, robotica industriale. Ma nessuno parla piu di costruire macchine che pensano. E una vergogna, un'illusione degli anni '60.

Gli anni '80: Una breve primavera

Negli anni '80 c'e una breve ripresa, guidata da un'idea diversa: i sistemi esperti.

L'idea e semplice: invece di cercare di far "imparare" le macchine, codifichiamo la conoscenza umana in regole. Se il paziente ha febbre E tosse E dolori muscolari, allora potrebbe essere influenza. Se il motore fa questo rumore E la spia e accesa, allora controllare l'olio.

Migliaia di regole, scritte a mano da programmatori che intervistano esperti umani. E noioso, e costoso, ma funziona - per un po'.

Le aziende investono. I consulenti proliferano. Il Giappone lancia il progetto "Quinta Generazione" per costruire computer intelligenti basati sulla logica - un investimento di centinaia di milioni di dollari.

Ma anche i sistemi esperti mostrano i loro limiti. Sono rigidi: funzionano solo per il problema specifico per cui sono stati costruiti. Sono fragili: una situazione leggermente diversa li manda in tilt. Sono costosi: ogni regola deve essere scritta a mano, e i domini complessi hanno migliaia di regole.

E soprattutto, non "imparano". Non migliorano con l'esperienza. Sono congelati nel momento in cui vengono creati.

Arriva il secondo inverno, fine anni '80. Di nuovo i fondi spariscono. Di nuovo l'IA diventa sinonimo di fallimento. Il progetto giapponese della Quinta Generazione viene silenziosamente abbandonato.

Nel frattempo, in silenzio...

Ma non tutti abbandonano le reti neurali.

Alcuni ricercatori, in silenzio, continuano a lavorarci. Nel 1986, David Rumelhart, Geoffrey Hinton e Ronald Williams pubblicano un paper fondamentale: dimostrano come far "imparare" reti a piu livelli usando una tecnica chiamata backpropagation.

La backpropagation era stata inventata gia negli anni '60, ma nessuno aveva capito come usarla bene. Rumelhart e colleghi mostrano che funziona - le reti profonde possono imparare.

Ma c'e un problema: i computer dell'epoca sono troppo lenti. Allenare una rete neurale profonda richiede miliardi di calcoli. E i dati sono troppo pochi - non esistono ancora i dataset enormi di oggi.

Geoffrey Hinton, in particolare, diventa una figura quasi eroica. Continua a lavorare sulle reti neurali per decenni, quando tutti gli altri hanno abbandonato. Pubblica paper che pochi leggono. Forma studenti che faticano a trovare lavoro. Tutti pensano che sia un pazzo, un relitto di un'era passata.

Lui va avanti.


Atto III: La Svolta (2012-2017)

Due cose cambiano

Tra gli anni '90 e i 2000, due cose cambiano silenziosamente.

Prima cosa: i computer diventano potenti. E non solo piu potenti - diventano potenti in un modo specifico. Le schede grafiche (GPU), progettate per i videogiochi, si rivelano perfette per le reti neurali. Invece di fare un calcolo alla volta molto velocemente, fanno milioni di calcoli semplici in parallelo. Esattamente quello che serve per allenare una rete neurale.

Seconda cosa: arrivano i dati. Internet esplode. La gente carica miliardi di foto. Scrive miliardi di pagine. Wikipedia, Facebook, YouTube, blog, forum. Una quantita di dati che i ricercatori degli anni '60 non potevano nemmeno immaginare.

Potenza di calcolo + dati enormi = il momento giusto per le reti neurali.

ImageNet 2012: Il momento "cazzo, funziona"

Dal 2010, ogni anno si tiene una competizione chiamata ImageNet Large Scale Visual Recognition Challenge. Il compito: riconoscere cosa c'e in un'immagine. Un cane? Un gatto? Una macchina? Una sedia?

ImageNet ha 1.2 milioni di immagini, in 1000 categorie diverse. I migliori algoritmi dell'epoca - "feature engineering" tradizionale, Support Vector Machines, cose costruite a mano da esperti - raggiungono un tasso di errore intorno al 25-26%. Ogni anno migliorano di un punto o due.

Nel 2012, un team dell'Universita di Toronto presenta qualcosa di diverso. Il team e composto da Alex Krizhevsky (uno studente di dottorato), Ilya Sutskever (un altro studente), e il loro supervisore: Geoffrey Hinton. Quel "pazzo" che lavorava sulle reti neurali da trent'anni.

Presentano AlexNet: una rete neurale profonda (8 livelli), allenata su due schede grafiche NVIDIA da videogiochi.

Vince.

Ma non vince di poco. Vince con un tasso di errore del 15.3%, contro il 26.2% del secondo classificato.

Per capire quanto sia enorme: e come se alle Olimpiadi qualcuno corresse i 100 metri in 7 secondi invece di 9.5. Non e un miglioramento. E una rottura.

Il mondo dell'IA si ferma. Quello che per 30 anni era stato considerato un vicolo cieco - le reti neurali - funziona. E funziona meglio di tutto il resto messo insieme.

Hinton viene contattato da Google, Microsoft, Baidu. La sua piccola azienda viene venduta a Google per 44 milioni di dollari. Nel 2024, vincera il premio Nobel per la fisica.

2016: AlphaGo e le lacrime di Lee Sedol

Nel marzo 2016, DeepMind (un'azienda comprata da Google nel 2014 per 500 milioni di dollari) sfida Lee Sedol, il campione mondiale di Go.

Go e un gioco da tavolo inventato in Cina circa 2500 anni fa. Si gioca su una griglia 19x19, con pietre bianche e nere. Le regole sono semplici. La complessita e infinita.

Go non e come gli scacchi. Gli scacchi hanno circa 10^120 possibili partite - un numero enorme, ma finito. Deep Blue, il computer che ha battuto Kasparov nel 1997, ha vinto principalmente con la forza bruta: calcolare milioni di mosse in anticipo.

Go ha circa 10^360 possibili partite. Per darvi un'idea: gli atomi nell'universo osservabile sono circa 10^80. Non puoi vincere a Go con la forza bruta. Non basterebbero tutti i computer del mondo per calcolare tutte le mosse.

Per vincere a Go devi capire il gioco. Devi avere intuizione. I grandi maestri parlano di "forma", di "influenza", di "sentire" la posizione. E per questo che molti pensavano che l'IA non avrebbe mai battuto un umano a Go - almeno non per decenni.

AlphaGo vince 4 a 1.

Ma non e solo la vittoria. E come vince.

Nella seconda partita, alla mossa 37, AlphaGo fa qualcosa di strano. Piazza una pietra in una posizione che nessun giocatore umano avrebbe mai scelto. I commentatori - tutti grandi maestri - pensano sia un errore. "E una mossa da dilettante", dice uno. "Non ha senso", dice un altro.

Lee Sedol si alza dal tavolo. Esce dalla stanza. Fuma una sigaretta. Torna dopo quindici minuti. Pensa a lungo. Gioca. E perde.

Quella mossa "da dilettante" era geniale. AlphaGo aveva trovato qualcosa che 2500 anni di giocatori umani non avevano visto.

Dopo la partita, Lee Sedol tiene una conferenza stampa. E visibilmente scosso.

"Mi scuso per essere stato cosi impotente. La partita di oggi non e stata una sconfitta di Lee Sedol - e stata una sconfitta dell'umanita."

Fan Hui, un altro campione di Go che era stato battuto da AlphaGo qualche mese prima (in segreto, come test), dice qualcosa di piu profondo:

"Dopo aver perso, non riuscivo a dormire. Continuavo a pensare: e se tutto quello che sapevo sul Go fosse sbagliato? E se avessi passato vent'anni a studiare nella direzione sbagliata?"

Ma poi aggiunge:

"Adesso guardo le partite di AlphaGo, e imparo. E bellissimo. E come avere un maestro alieno che ti mostra cose che non avevi mai visto."

2017: Quindici pagine che cambiano tutto

Nel 2017, otto ricercatori di Google pubblicano un paper di 15 pagine. Il titolo e strano, quasi arrogante: "Attention Is All You Need".

Presentano una nuova architettura per le reti neurali: il Transformer.

Per capire perche e importante, bisogna capire il problema. Le reti neurali tradizionali leggono il testo parola per parola, in sequenza. "Il gatto siede sul tappeto". Prima "Il", poi "gatto", poi "siede"... E lento, e soprattutto perde il contesto: quando arrivi alla fine della frase, ti sei "dimenticato" l'inizio.

I Transformer funzionano diversamente. Guardano tutta la frase insieme, e imparano a prestare "attenzione" alle parti importanti. Se la frase e "Il gatto, che era nero e molto peloso, siede sul tappeto", il Transformer capisce che "siede" si riferisce a "gatto" anche se ci sono molte parole in mezzo.

E un'idea elegante, quasi ovvia col senno di poi. Ma cambia tutto.

Da questa architettura nasceranno, nei mesi e anni successivi:

E poi...


Epilogo: ChatGPT e oltre (2022-oggi)

30 novembre 2022

30 novembre 2022. OpenAI rilascia ChatGPT. E una demo gratuita, un esperimento per raccogliere feedback. Nessuno si aspetta quello che succede.

In 5 giorni raggiunge 1 milione di utenti.

In 2 mesi, 100 milioni.

E la crescita piu veloce nella storia delle applicazioni. TikTok ci ha messo 9 mesi per raggiungere 100 milioni. Instagram due anni e mezzo. Facebook quasi cinque anni.

Improvvisamente, tutti parlano di intelligenza artificiale. I giornali. I politici. Tua nonna. Il barista. Non e piu una cosa da nerd - e sulla bocca di tutti.

Ma cos'e, davvero?

ChatGPT non e AGI - l'intelligenza artificiale generale che Asimov immaginava nei suoi romanzi. Non e una macchina che pensa. Non ha coscienza, non ha desideri, non capisce davvero quello che dice.

E un sistema statistico molto, molto sofisticato che completa testo.

Gli dai un inizio: "La capitale della Francia e". E lui completa: "Parigi". Non perche "sa" che Parigi e la capitale della Francia. Ma perche ha "visto" miliardi di testi dove quella frase si completa con "Parigi".

E lo stesso meccanismo dell'autocomplete del telefono. Quando scrivi "Buong" e il telefono suggerisce "iorno" - non e perche il telefono e intelligente. E perche ha visto quella sequenza miliardi di volte.

ChatGPT e questo. Solo che invece di completare una parola, completa paragrafi interi. Pagine intere. Libri interi.

E il trucco e che, a furia di vedere abbastanza testo, emerge qualcosa che assomiglia molto all'intelligenza. Perche il linguaggio umano e strutturato, e logico, ha delle regole. E se impari bene il linguaggio, impari anche qualcosa sul mondo che quel linguaggio descrive.

Ma e importante capire cosa non e. Non capisce davvero. Non ragiona davvero. Non sa davvero. "Vede" pattern, e li completa.

E adesso?

Mentre scrivo (dicembre 2024), siamo a due anni da ChatGPT. E il mondo e cambiato.

Ci sono modelli che generano immagini fotorealistiche da descrizioni testuali. Modelli che generano video. Modelli che generano musica. Modelli che generano codice.

Google, Microsoft, Meta, Amazon - tutti corrono. La Cina corre. Le startup spuntano ovunque.

E le domande che Asimov si poneva nel 1942 - "Se costruiamo macchine intelligenti, che regole gli diamo?" - sono piu urgenti che mai. Solo che adesso non sono fantascienza. Sono policy, sono leggi, sono decisioni che qualcuno deve prendere.


Appendice: La linea del tempo

1942 - Asimov scrive le Tre Leggi della Robotica

1956 - Nasce il termine "Intelligenza Artificiale" a Dartmouth

1958 - Il Perceptron di Rosenblatt

1969 - "Perceptrons" di Minsky e Papert

1973 - Rapporto Lighthill, primo inverno

1986 - Paper sulla backpropagation

1987 - Secondo inverno

1997 - Deep Blue batte Kasparov a scacchi

2012 - AlexNet vince ImageNet

2016 - AlphaGo batte Lee Sedol a Go

2017 - "Attention Is All You Need" (Transformer)

2022 - ChatGPT

2024 - Hinton vince il Nobel per la fisica


Preparato per Minerva - Conferenza 9 Gennaio 2025
Da Asimov che sognava, a noi che lo viviamo.

- FINE -
1