Il supercomputer di Deep Blue che ha permesso di battere Garry Kasparov è stato eclissato dalla rivoluzione neurale. Ora, dopo 25 anni, potrebbe prendersi la sua rivincita
di Clive Thompson
L’11 maggio 1997, Garry Kasparov si agitò sulla sua morbida poltrona di pelle all’Equitable Center di Manhattan, passandosi ansiosamente le mani tra i capelli. Era l’ultima partita della sua sfida contro il supercomputer Deep Blue di IBM, un decisivo spareggio nella resa dei conti tra umano e silicio, e le cose non stavano andando bene. Dopo aver commesso un serio errore all’inizio del gioco, Kasparov si era ritrovato in un angolo.
Una partita di scacchi di alto livello di solito richiede almeno quattro ore, ma Kasparov si rese conto di essere condannato alla sconfitta in una sola ora. Abbandonò la partita e si chinò sulla scacchiera per stringere rigidamente la mano a Joseph Hoane, un ingegnere IBM che aveva contribuito a sviluppare Deep Blue e che aveva spostato i pezzi del computer sulla scacchiera.
Per chiunque sia interessato all’intelligenza artificiale, la sconfitta del campione di scacchi ha rappresentato un campanello d’allarme. Apparvero titoli “catastrofici”, come quello su Newsweek che definì la sfida L’ultimo baluardo del cervello o un altro in cui Kasparov veniva dipinto come “Il difensore dell’umanità“. Se l’AI era riuscita a battere la mente scacchistica più acuta del mondo, sembrava che i computer avrebbero presto sopravanzato gli umani in qualsiasi cosa, con IBM in prima linea.
Non è quello che è successo. In effetti, quando guardiamo indietro ora, 25 anni dopo, possiamo vedere che la vittoria di Deep Blue non è stata tanto un trionfo dell’AI, ma una sorta di campana a morto. Era un traguardo per l’intelligenza informatica della vecchia scuola, la laboriosa creazione di infinite righe di codice, che presto sarebbe stata eclissata da una forma rivale di intelligenza artificiale: la rete neurale, in particolare la tecnica nota come “apprendimento profondo”.
“Nonostante tutto il peso che aveva in giro, Deep Blue era il dinosauro goffo che stava per essere ucciso da un asteroide mentre le reti neurali erano i piccoli mammiferi che sarebbero sopravvissuti e avrebbero trasformato il pianeta. Eppure anche oggi, nel profondo di un mondo costellato di AI, gli informatici stanno ancora discutendo se le macchine “penseranno mai” veramente. E quando si tratta di rispondere a questa domanda, Deep Blue potrebbe avere l’ultima parola.
Nel 1989, quando IBM iniziò a lavorare a Deep Blue, l’AI veniva da una serie di passaggi sulle montagne russe dell’entusiasmo e del collasso umiliante. I pionieri degli anni 1950 avevano affermato che l’AI avrebbe presto visto enormi progressi. Il matematico Claude Shannon aveva predetto che “entro dieci o quindici anni, dai laboratori emergerà qualcosa che non è troppo lontano dal robot della fantascienza”. Niente di tutto ciò. E ogni volta che gli inventori non riuscivano a fornire risultati, gli investitori smettevano di finanziare nuovi progetti, creando quello che sarebbe stato l’”inverno dell’AI” negli anni 1970 e negli anni 1980.
Il motivo per cui hanno fallito, ora lo sappiamo, è che i creatori di intelligenza artificiale stavano cercando di controllare l’imprevedibilità della vita quotidiana usando la logica pura. Partendo dall’idea che l’uomo si comportasse in questo modo, gli ingegneri scrivevano pazientemente una regola per ogni decisione che la loro AI doveva prendere. Il problema è che il mondo reale è troppo confuso e sfumato per essere gestito a piccoli passi.
Gli ingegneri realizzavano con cura i loro “sistemi esperti”, come venivano chiamati, che avrebbero funzionato abbastanza bene fino a quando non si scontravano con la realtà. Un’azienda di carte di credito, per esempio, poteva creare un sistema per approvare automaticamente le richieste, solo per scoprire di aver emesso carte a cani o ragazzi di 13 anni. I programmatori non avrebbero mai immaginato che minori o animali domestici avrebbero richiesto una carta, quindi non avevano mai scritto regole per accogliere quei casi limite. Tali sistemi non potrebbero imparare una nuova regola da soli.
All’inizio degli anni 1990, i problemi con i sistemi esperti avevano portato allo stallo dell’intelligenza artificiale. In questo paesaggio desolato, Deep Blue è arrivato come un sasso nello stagno. Il progetto è nato dal lavoro su Deep Thought, un computer per giocare a scacchi costruito alla Carnegie Mellon da Murray Campbell, Feng-hsiung Hsu e altri. Deep Thought è stata, nel 1988, la prima AI di scacchi a battere un grande maestro, Bent Larsen.
Il team di Carnegie Mellon aveva scoperto algoritmi di buon livello per valutare le mosse degli scacchi e aveva anche creato hardware personalizzato che li analizzava rapidamente. (Il nome “Deep Thought” deriva dalla enigmatica risposta dell’intelligenza artificiale di Guida galattica per autostoppisti che, quando gli viene chiesto il significato della vita, risponde “42”).
IBM venne a conoscenza di Deep Thought e decise che avrebbe lanciato una “grande sfida”, costruendo un computer così buono da poter battere qualsiasi essere umano. Nel 1989 assunse Hsu e Campbell e incaricò loro di battere il più grande maestro del mondo. Gli scacchi avevano sempre avuto nei circoli dell’AI un valore simbolico: due avversari uno di fronte all’altro sul piano astrale del pensiero puro. Di certo sarebbe stata una pubblicità importante sconfiggere Kasparov.
Per costruire Deep Blue, Campbell e il suo team hanno dovuto creare nuovi chip per calcolare le posizioni degli scacchi ancora più rapidamente e assumere grandi maestri per migliorare gli algoritmi per valutare le mosse successive. L’efficienza contava: ci sono talmente tante mosse di scacchi possibili che nemmeno un supercomputer avrebbe potuto ponderarle in un ragionevole lasso di tempo. Per giocare a scacchi, Deep Blue analizzava la mossa successiva, calcolava i possibili sviluppi, “potava” quelli che sembravano poco promettenti, approfondiva i percorsi promettenti e ripeteva il processo più volte.
“Pensavamo che ci sarebbero voluti cinque anni, in realtà ce ne sono voluti poco più di sei”, dice Campbell. Nel 1996, IBM decise che era finalmente pronta per affrontare Kasparov e fissò una partita per febbraio. Campbell e il suo team stavano ancora lavorando freneticamente per mettere a punto Deep Blue: “Il sistema aveva funzionato solo per poche settimane prima che iniziasse la sfida”, ricorda.
Kasparov si aggiudicò la sfida, anche se Deep Blue riuscì a vincere una partita. IBM chiese una rivincita e il team di Campbell trascorse l’anno successivo a costruire hardware. Quando ebbero completato i loro miglioramenti, Deep Blue era composto da 30 processori PowerPC e 480 chip per scacchi personalizzati; avevano anche assunto altri grandi maestri per migliorare gli algoritmi. Quando Kasparov e Deep Blue si incontrarono di nuovo, nel maggio 1997, il computer aveva raddoppiato la sua velocità. Ora era in grado di valutare 200 milioni di mosse di scacchi al secondo.
Anche così, IBM non era ancora sicura della vittoria, ricorda Campbell: “Ci aspettavamo un pareggio”. La realtà apparve molto più negativa. Kasparov dominò nella prima partita. Ma alla sua 36a mossa nella seconda partita, Deep Blue fece qualcosa che Kasparov non si aspettava. In genere, le macchine erano migliori degli umani nelle tattiche a breve termine, ma quello che mancava loro era la strategia. La mossa di Deep Blue era spiazzante e Kasparov, convinto di non avere modo di vincere, abbandonò la seconda partita.
Ma non avrebbe dovuto. Deep Blue, si è scoperto, in realtà non aveva una strategia così raffinata. Kasparov non era riuscito a individuare una mossa che avrebbe lasciato la partita in parità. Si stava innervosendo: preoccupato che la macchina potesse essere molto più potente di quanto non fosse in realtà, aveva iniziato a vedere un ragionamento simile a quello umano dove non esisteva.
A quel punto, Kasparov ha continuato a giocare sempre peggio. IBM ne ha beneficiato. Nella frenesia della stampa che ha seguito il successo di Deep Blue, la capitalizzazione di mercato dell’azienda è aumentata di 11,4 miliardi di dollari in una sola settimana. Ancora più significativo, tuttavia, è che il trionfo di IBM è sembrato un disgelo nel lungo inverno dell’AI. Se gli scacchi potevano essere conquistati, cosa sarebbe successo dopo? La verità è che non sorprende che un computer abbia battuto Kasparov.
Gli scacchi non sono la forma più raffinata di pensiero umano
Tutti sapevano che una volta che i computer fossero diventati abbastanza veloci, avrebbero sconfitto un essere umano. Era solo una questione di quando. La vittoria di Deep Blue è stato il momento che ha mostrato quanto potessero essere limitati i sistemi codificati a mano. IBM aveva speso anni e milioni di dollari per sviluppare un computer per giocare a scacchi. Ma non era in grado di fare altro, nel senso che, come dice Campbell, “non ha portato a scoperte che hanno permesso all’AI di avere un enorme reale sul mondo”.
Non hanno davvero scoperto alcun principio di intelligenza, perché la vita non assomiglia agli scacchi. “Ci sono pochissimi problemi in cui, come negli scacchi, si hanno a disposizione tutte le informazioni necessarie per prendere la decisione giusta”, aggiunge Campbell. “Il più delle volte ci sono incognite. C’è la casualità”. Ma già allora alcuni nuovi arrivati stavano armeggiando con una forma di intelligenza artificiale radicalmente più promettente: la rete neurale.
Con le reti neurali, l’idea non era, come con i sistemi esperti, di scrivere con pazienza regole per ogni decisione che l’AI doveva prendere, ma rafforzare con l’allenamento le connessioni interne nell’emulazione approssimativa (come dice la teoria) del modo di apprendere del cervello umano. L’idea esisteva dagli anni 1950. Ma addestrare una grande rete neurale richiedeva computer velocissimi, tonnellate di memoria e molti dati. Niente di tutto ciò era facilmente disponibile allora. Negli anni 1990, le reti neurali erano considerate una perdita di tempo.
“All’epoca, la maggior parte di chi lavorava all’intelligenza artificiale pensava che le reti neurali fossero solo spazzatura“, afferma Geoff Hinton, professore emerito di informatica all’Università di Toronto e pioniere nel campo. Ma negli anni 2000, l’industria dei computer si stava evolvendo per rendere praticabili le reti neurali. L’industria dei videogiochi ha favorito lo sviluppo di unità di elaborazione grafica ultraveloci, che si sono rivelate perfettamente adatte per la matematica della rete neurale. Nel frattempo, Internet stava esplodendo, producendo un torrente di immagini e testo che potevano essere utilizzati per addestrare i sistemi.
All’inizio degli anni 2010, questi progressi tecnologici stavano permettendo a Hinton di portare le reti neurali a nuovi livelli. Ora si potevano creare reti con molti strati di neuroni (che è ciò che significa “profondo” quando si parla di “apprendimento profondo”). Nel 2012 il suo team ha vinto senza problemi il concorso annuale Imagenet, in cui le AI competono per riconoscere gli elementi nelle immagini. Ha sbalordito il mondo dell’informatica: le macchine per l’autoapprendimento erano finalmente realizzabili.
Dieci anni dopo la rivoluzione del deep learning, le reti neurali e le loro capacità di riconoscimento dei modelli hanno colonizzato ogni angolo della vita quotidiana. Aiutano Gmail a completare automaticamente le frasi degli utenti, aiutano le banche a rilevare le frodi, consentono alle app fotografiche di riconoscere automaticamente i volti e, nel caso di GPT-3 di OpenAI e Gopher di DeepMind, di scrivere lunghi saggi e di riassumere i testi.
Stanno anche cambiando il modo in cui si porta avanti la ricerca scientifica. Nel 2020, DeepMind ha presentato AlphaFold2, un’intelligenza artificiale in grado di prevedere come si ripiegheranno le proteine, un’abilità sovrumana che può aiutare a guidare i ricercatori nello sviluppo di nuovi farmaci e terapie.
Nel frattempo Deep Blue è svanito, senza lasciare dietro di sé invenzioni utili. Si scopre che giocare a scacchi non era un’abilità informatica necessaria nella vita di tutti i giorni. “Ciò che Deep Blue alla fine ha mostrato sono stati i punti deboli del tentativo di creare tutto a mano”, afferma Hassabis, fondatore di DeepMind.
IBM ha cercato di rimediare alla situazione con Watson, un altro sistema specializzato, progettato per affrontare un problema più pratico: ottenere una macchina per rispondere alle domande. Utilizzava l’analisi statistica di enormi quantità di testo per ottenere una comprensione della lingua che era, per l’epoca, all’avanguardia. Era più di un semplice sistema se-allora. Ma Watson si è trovato poco anni dopo dinanzi dalla rivoluzione del deep learning, che ha portato una generazione di modelli di elaborazione del linguaggio molto più articolati delle tecniche statistiche dell’AI di IBM.
Il deep learning ha sopraffatto l’AI della vecchia scuola in quanto “il riconoscimento dei pattern è incredibilmente potente”, afferma Daphne Koller, un’ex professoressa di Stanford che ha fondato e gestisce Insitro, che utilizza reti neurali e altre forme di apprendimento automatico per studiare nuove terapie farmacologiche. La flessibilità delle reti neurali, l’ampia varietà di modi in cui è possibile utilizzare il riconoscimento dei modelli, è il motivo per cui l’intelligenza artificiale è viva.
Per decenni, si è pensato che padroneggiare gli scacchi sarebbe stato decisivo, ma questo gioco logico si è rivelato abbastanza facili per i computer. Ciò che è risultato molto più difficile da imparare è stato il lavoro mentale casuale e inconscio degli esseri umani, che significa condurre una conversazione vivace, guidare un’auto nel traffico o interpretare lo stato d’animo di un amico. Facciamo queste cose automaticamente al punto che raramente ci rendiamo conto di quanto siano complicate. La grande utilità del deep learning deriva dall’essere in grado di catturare piccoli frammenti di questa intelligenza umana.
L’obiettivo è ancora lontano
Tuttavia, non c’è una vittoria finale nell’intelligenza artificiale. Anche l’apprendimento profondo è al centro di aspre critiche. SecondoMeredith Broussard, professoressa di giornalismo alla New York University e autrice di Artificial Unintelligence, i sistemi di deep learning sono spesso addestrati su dati distorti e ne assorbono i pregiudizi. Gli informatici Joy Buolamwini e Timnit Gebru hanno scoperto che tre sistemi di AI visiva disponibili in commercio erano terribilmente carenti nell’analisi dei volti delle donne dalla pelle più scura. Amazon ha addestrato un’AI per controllare i curriculum, solo per scoprire che declassava sistematicamente le donne.
Sebbene gli informatici e molti ingegneri dell’AI siano ora consapevoli di questi pregiudizi, non è ancora chiaro come affrontarli. Inoltre, le reti neurali sono anche “solide scatole nere”, afferma Daniela Rus, una veterana dell’AI che attualmente gestisce il Computer Science and Artificial Intelligence Laboratory del MIT. Una volta addestrata una rete neurale, i suoi meccanismi non sono facilmente comprensibili nemmeno dal suo creatore.
Potrebbe non essere un problema, sostiene Rus, fare affidamento su una scatola nera per un’attività che non è “critica per la sicurezza”. Ma che dire di un lavoro ad alto rischio, come la guida autonoma? “In realtà è davvero straordinario aver riposto così tanta fiducia in loro”, dice. È qui che Deep Blue ha avuto un vantaggio. Lo stile della vecchia scuola delle regole artigianali poteva essere fragile, ma era comprensibile. La macchina era complessa, ma non era un mistero.
Ironia della sorte, quel vecchio stile di programmazione potrebbe avere una sorta di ritorno mentre ingegneri e informatici sono alle prese con i limiti della corrispondenza dei modelli. I generatori di linguaggio, come GPT-3 di OpenAI o Gopher di DeepMind, possono prendere alcune frasi e continuare, scrivendo pagine e pagine di testo a prima vista plausibile. Ma nonostante alcune apprezzabili prodotti, Gopher “ancora non capisce davvero cosa sta dicendo”, dice Hassabis. “Non nel vero senso della parola”.
Allo stesso modo, l’AI visiva può commettere errori terribili quando incontra un caso limite. Le auto a guida autonoma sono andate a sbattere contro i camion dei pompieri parcheggiati sulle autostrade, perché in tutti i milioni di ore di video su cui erano stati addestrati, non si erano mai trovati in quella situazione. Le reti neurali presentano, a modo loro, una versione del problema della “fragilità”.
Ciò di cui l’AI ha davvero bisogno per andare avanti, come sospettano ora molti scienziati informatici, è la capacità di conoscere i fatti sul mondo e di ragionarci su. Un’auto a guida autonoma non può fare affidamento solo sulla corrispondenza dei modelli, ma deve anche essere dotata di buon senso, cioè sapere cos’è un camion dei pompieri e perché vederne uno parcheggiato su un’autostrada rappresenta un rischio.
Il problema è che nessuno sa bene come costruire reti neurali in grado di ragionare o usare il buon senso. Gary Marcus, uno scienziato cognitivo e coautore di Rebooting AI, ipotizza che il futuro dell’intelligenza artificiale richiederà un approccio “ibrido”: reti neurali per apprendere schemi, ma guidato da una logica antiquata e codificata a mano. Questo, in un certo senso, unirebbe i vantaggi di Deep Blue con quelli del deep learning.
I sostenitori irriducibili del deep learning non sono d’accordo. Hinton crede che le reti neurali saranno, a lungo termine, perfettamente in grado di ragionare. Dopotutto, gli umani lo fanno, “e il cervello è una rete neurale”. A suo parere, l’uso della logica codificata a piccoli passi incontrerebbe il problema di tutti i sistemi esperti, ovvero che non si potrà mai fornire la macchina del buon senso. La via da seguire, dice Hinton, è continuare a innovare le reti neurali, esplorare nuove architetture e nuovi algoritmi di apprendimento che imitano in modo più accurato il funzionamento del cervello umano stesso.
Gli informatici stanno analizzando una varietà di approcci. In IBM, Campbell sta lavorando a una forma di AI “neuro-simbolica” che funziona in parte sul modello di Marcus. Il laboratorio di Oren Etzioni, CEO dell’Allen Institute for AI, sta tentando di costruire moduli di buon senso per l’intelligenza artificiale che includano sia reti neurali addestrate che logica tradizionale del computer. Ma siamo ancora agli inizi. Rimane in piedi anche la domanda su come conviveremo con l’AI.
Kasparov, non molto tempo dopo la sua sconfitta contro Deep Blue, decise che combattere contro un’AI non aveva senso. La macchina “pensava” in modo fondamentalmente disumano, usando la matematica della forza bruta. Avrebbe sempre avuto una capacità tattica superiore nel breve termine. Allora perché competere? Non sarebbe meglio collaborare?
Dopo la partita con Deep Blue, Kasparov ha inventato gli “scacchi avanzati”, in cui umani e silicio lavorano insieme. Un essere umano gioca contro un altro umano, ma ognuno si avvale anche dell’aiuto di un laptop su cui è in esecuzione un software di scacchi. Quando Kasparov iniziò a organizzare partite di scacchi avanzate nel 1998, scoprì subito affascinanti differenze nel gioco. In una partita uomo-computer portatile nel 2005, un paio di dilettanti hanno vinto il primo premio, battendo diversi grandi maestri.
Questi outsider hanno capito meglio come collaborare con la macchina. Sapevano come esplorare rapidamente le idee, quando accettare un suggerimento della macchina e quando ignorarlo. Si tratta esattamente del modo in cui, secondo Kasparov, ci si deve avvicinare al mondo emergente delle reti neurali.
Le reti neurali si comportano in modo diverso dai motori scacchistici, ovviamente. Ma molti esperti concordano con la visione di Kasparov della collaborazione uomo-AI. Per Hassabis di DeepMind, si assisterà a una fioritura di iniziative simili. Allo stesso modo, l’azienda di Koller, Insitro, utilizza l’AI come strumento collaborativo ibrido uomo-macchina tra i ricercatori. Verrà il momento in cui costruiremo un’IA che prende il sopravvento in tutti i campi del pensiero? Probabile. Ma anche questi scienziati, all’avanguardia, non possono prevedere quando ciò accadrà.
Clive Thompson, giornalista di scienza e tecnologia, è autore di Coders: The Making of a New Tribe and the Remaking of the World.
(rp)