STEPHANIE ARNETT/MITTR | OPENAI (ILYA)

Ilya Sutskever, Chief Scientist di OpenAI, racconta in esclusiva speranze e timori per il futuro dell’IA

“Sarà monumentale, sconvolgente. Ci sarà un prima e un dopo”.

Ilya Sutskever, a testa china, è immerso nei suoi pensieri. Le braccia spalancate e le dita sono distese sul tavolo come un pianista da concerto che si appresta a suonare le prime note. Ci sediamo in silenzio.

Sono venuto a incontrare Sutskever, co-founder e chief scientist di OpenAI, negli uffici della sua azienda, che si trova in una strada poco in vista del Mission District di San Francisco, per sapere quali sono i prossimi sviluppi della tecnologia che ha contribuito a far nascere. Voglio anche sapere cosa c’è di nuovo per lui – in particolare, perché la costruzione della prossima generazione dei modelli generativi di punta della sua azienda non è più al centro del suo lavoro.

Invece di costruire il prossimo GPT o il creatore di immagini DALL-E, Sutskever mi dice che la sua nuova priorità è capire come impedire a una superintelligenza artificiale (un’ipotetica tecnologia futura che vede arrivare con la lungimiranza di un vero credente) di agire in modo scorretto.

Sutskever mi dice anche molte altre cose. Pensa che ChatGPT possa essere cosciente (se si strizzano gli occhi). Ritiene che il mondo debba svegliarsi di fronte alla vera potenza della tecnologia che la sua azienda e altre stanno cercando di creare. E pensa che un giorno alcuni esseri umani sceglieranno di fondersi con le macchine.

Molto di ciò che dice Sutskever è assurdo. Ma non così assurdo come sarebbe sembrato solo uno o due anni fa. Come mi dice lui stesso, ChatGPT ha già riscritto le aspettative di molte persone su ciò che sta per accadere, trasformando “non accadrà mai” in “accadrà più velocemente di quanto pensiate”.

“È importante parlare della direzione in cui tutto ciò è diretto”, dice, prima di prevedere lo sviluppo dell’intelligenza artificiale generale (che prevede macchine intelligenti quanto gli esseri umani) come se fosse una scommessa sicura quanto un altro iPhone: “A un certo punto avremo davvero l’intelligenza artificiale generale. Forse la costruirà OpenAI. Forse la costruirà qualche altra azienda”.

Dal momento del suo improvviso successo a sorpresa, ChatGPT, lo scorso novembre, il fermento intorno a OpenAI è stato sorprendente, anche in un settore noto per l’hype. Nessuno ne ha mai abbastanza di questa startup nerd da 80 miliardi di dollari. I leader mondiali cercano (e ottengono) udienze private. I nomi dei suoi prodotti, un po’ goffi, compaiono nelle conversazioni casuali.

L’amministratore delegato di OpenAI, Sam Altman, ha trascorso buona parte dell’estate in un tour di sensibilizzazione durato settimane, offrendo la propria disponibilità ai politici e parlando in auditorium gremiti in tutto il mondo. Ma Sutskever è una figura molto meno pubblica e non rilascia molte interviste.

Quando parla è ponderato e metodico. Ci sono lunghe pause in cui pensa a ciò che vuole dire e a come dirlo, girando le domande come se fossero dei puzzle da risolvere. Non sembra interessato a parlare di sé. “Conduco una vita molto semplice”, dice. “Vado al lavoro e poi torno a casa. Non faccio molto altro. Ci sono molte attività sociali che si potrebbero intraprendere, molti eventi a cui si potrebbe andare. Ma non lo faccio”.

Ma quando si parla di IA, e dei rischi e dei trionfi epocali che egli vede lungo la linea, si aprono dei panorami: “Sarà monumentale, sconvolgente. Ci sarà un prima e un dopo”.

Sempre meglio e sempre meglio

In un mondo senza OpenAI, Sutskever entrerebbe comunque negli annali della storia dell’intelligenza artificiale. Israelo-canadese, è nato nella Russia sovietica ma è cresciuto a Gerusalemme dall’età di cinque anni (parla ancora il russo e l’ebraico oltre all’inglese). Si è poi trasferito in Canada per studiare all’Università di Toronto con Geoffrey Hinton, il pioniere dell’intelligenza artificiale che all’inizio di quest’anno ha reso pubblici i suoi timori sulla tecnologia che ha contribuito a inventare (Sutskever non ha voluto commentare le dichiarazioni di Hinton, ma la sua nuova attenzione per le superintelligenze canaglia suggerisce che i due sono sulla stessa lunghezza d’onda).

In seguito Hinton avrebbe condiviso il premio Turing con Yann LeCun e Yoshua Bengio per il loro lavoro sulle reti neurali. Ma quando Sutskever lo raggiunse all’inizio degli anni 2000, la maggior parte dei ricercatori di IA riteneva che le reti neurali fossero un vicolo cieco. Hinton era un’eccezione. Stava già addestrando piccoli modelli in grado di produrre brevi stringhe di testo un carattere alla volta, dice Sutskever: “Era l’inizio dell’IA generativa. Era davvero forte, solo che non andava ancora bene”.

Sutskever era affascinato dai cervelli: come imparano e come questo processo potrebbe essere ricreato, o almeno imitato, nelle macchine. Come Hinton, ha visto il potenziale delle reti neurali e della tecnica di prova ed errore utilizzata da Hinton per addestrarle, chiamata deep learning. “Continuava a migliorare e migliorare e migliorare”, dice Sutskever.

Nel 2012 Sutskever, Hinton e un altro studente laureato con Hinton, Alex Krizhevsky, hanno costruito una rete neurale chiamata AlexNet che hanno addestrato a identificare gli oggetti nelle foto molto meglio di qualsiasi altro software in circolazione all’epoca. È stato il momento del Big Bang dell’apprendimento profondo.

Dopo molti anni di false partenze, hanno dimostrato che le reti neurali sono incredibilmente efficaci nel riconoscimento dei modelli. Occorrevano solo più dati di quanti ne avessero visti la maggior parte dei ricercatori (in questo caso, un milione di immagini dall’insieme di dati ImageNet che Fei-Fei Li, ricercatore dell’Università di Princeton, aveva costruito dal 2006) e una quantità di potenza di calcolo da capogiro.

Il cambio di passo nel calcolo è avvenuto grazie a un nuovo tipo di chip chiamato unità di elaborazione grafica (GPU), prodotto da Nvidia. Le GPU sono state progettate per essere velocissime nel proiettare sugli schermi le immagini dei videogiochi in rapido movimento. Ma i calcoli che le GPU sono in grado di eseguire – moltiplicare enormi griglie di numeri – assomigliano molto ai calcoli necessari per addestrare le reti neurali.

Nvidia è oggi un’azienda da mille miliardi di dollari. All’epoca era alla disperata ricerca di applicazioni per il suo nuovo hardware di nicchia. “Quando si inventa una nuova tecnologia, bisogna essere ricettivi alle idee folli”, dice Jensen Huang, CEO di Nvidia. “Il mio stato d’animo è sempre stato quello di cercare qualcosa di stravagante, e l’idea che le reti neurali avrebbero trasformato l’informatica – era un’idea straordinariamente stravagante”.

Huang afferma che Nvidia ha inviato al team di Toronto un paio di GPU da provare quando stavano lavorando su AlexNet. Ma loro volevano la versione più recente, un chip chiamato GTX 580 che si stava esaurendo rapidamente nei negozi. Secondo Huang, Sutskever ha attraversato il confine da Toronto a New York per comprarne un po’. “La gente era in fila dietro l’angolo”, racconta Huang. Non so come abbia fatto – sono abbastanza sicuro che fosse possibile acquistarne solo una a testa; avevamo una politica molto rigida che prevedeva una GPU per giocatore – ma a quanto pare ne ha riempito un bagagliaio”. Quel baule pieno di GTX 580 ha cambiato il mondo”.

È una storia fantastica, ma potrebbe non essere vera. Sutskever insiste di aver comprato le prime GPU online. Ma tale tipo di mitizzazione è comune in questo settore in fermento. Sutskever stesso è più umile: “Ho pensato che se fossi riuscito a fare anche solo un briciolo di progresso reale, lo avrei considerato un successo”, dice. “L’impatto sul mondo reale sembrava così lontano, perché allora i computer erano così piccoli”.

Dopo il successo di AlexNet, Google ha bussato alla porta. Ha acquisito la società DNNresearch, spin-off di Hinton, e ha assunto Sutskever. A Google Sutskever ha dimostrato che i poteri di riconoscimento dei modelli del deep learning potevano essere applicati a sequenze di dati, come parole e frasi, oltre che a immagini. “Ilya è sempre stato interessato al linguaggio”, dice l’ex collega di Sutskever Jeff Dean, che ora è chief scientist di Google: “Abbiamo avuto grandi discussioni nel corso degli anni. Ilya ha un forte senso intuitivo su dove le cose potrebbero andare”.

Ma Sutskever non è rimasto a lungo a Google. Nel 2014 è stato assunto come cofondatore di OpenAI. Sostenuta da un miliardo di dollari (provenienti da Altman, Elon Musk, Peter Thiel, Microsoft, Y Combinator e altri) e da una massiccia dose di spavalderia della Silicon Valley, la nuova società ha puntato fin dall’inizio sullo sviluppo dell’intelligenza artificiale, una prospettiva che all’epoca pochi prendevano sul serio.

Con Sutskever a bordo, il cervello dietro i dollari, la spavalderia era comprensibile. Fino a quel momento, aveva fatto faville, ottenendo sempre di più dalle reti neurali. La sua reputazione lo precedeva, rendendolo una preda importante, afferma Dalton Caldwell, managing director degli investimenti di Y Combinator.

“Ricordo che Sam Altman si riferiva a Ilya come a uno dei ricercatori più rispettati al mondo”, dice Caldwell. “Pensava che Ilya sarebbe stato in grado di attrarre molti talenti dell’IA. Ha persino accennato al fatto che Yoshua Bengio, uno dei massimi esperti di IA al mondo, riteneva che sarebbe stato improbabile trovare un candidato migliore di Ilya per diventare chief scientist di OpenAI”.

Eppure all’inizio OpenAI ha vacillato. “Quando stavamo avviando OpenAI, c’è stato un periodo in cui non ero esattamente sicuro di come sarebbero proseguiti i progressi”, dice Sutskever. “Ma avevo una convinzione molto esplicita, ovvero: non si scommette contro il deep learning. In qualche modo, ogni volta che si incontra un ostacolo, entro sei mesi o un anno i ricercatori trovano un modo per aggirarlo”.

La sua fede è stata ripagata. Il primo dei modelli linguistici di grandi dimensioni GPT di OpenAI (il nome sta per “generative pretrained transformer”) è apparso nel 2016. Poi sono arrivati GPT-2 e GPT-3. Poi DALL-E, il sorprendente modello testo-immagine. Nessuno stava costruendo qualcosa di altrettanto valido. Con ogni rilascio, OpenAI ha alzato l’asticella di ciò che si pensava fosse possibile.

Gestione delle aspettative

Lo scorso novembre OpenAI ha rilasciato un chatbot gratuito che riproponeva alcune delle sue tecnologie esistenti. Questo ha resettato l’agenda dell’intero settore.  

All’epoca, OpenAI non aveva idea di cosa stesse producendo. Le aspettative all’interno dell’azienda non potevano essere più basse, dice Sutskever: “Ammetto, con un po’ di imbarazzo – non so se dovrei, ma è vero – che quando abbiamo creato ChatGPT non sapevo se fosse valido. Quando gli facevi una domanda concreta, ti dava una risposta sbagliata. Pensavo che sarebbe stato così poco impressionante che la gente avrebbe detto: ‘Perché lo state facendo? È così noioso!””.

L’attrazione era la convenienza, dice Sutskever. L’ampio modello linguistico di ChatGPT esisteva già da mesi. Ma se lo si inserisce in un’interfaccia accessibile e lo si distribuisce gratuitamente, miliardi di persone vengono a conoscenza per la prima volta di ciò che OpenAI e altri stanno costruendo.

“L’esperienza della prima volta è ciò che ha attirato le persone”, afferma Sutskever. “La prima volta che lo si usa, credo sia quasi un’esperienza spirituale. Si dice: ‘Oh mio Dio, questo computer sembra capire'”.

OpenAI ha accumulato 100 milioni di utenti in meno di due mesi, molti dei quali sono rimasti abbagliati da questo nuovo e straordinario giocattolo. Aaron Levie, CEO dell’azienda di storage Box, ha riassunto l’atmosfera nella settimana successiva al lancio, twittando: “ChatGPT è uno di quei rari momenti nella tecnologia in cui si vede un barlume di come tutto sarà diverso in futuro”.

Questa meraviglia crolla non appena ChatGPT dice qualcosa di stupido. Ma a quel punto non ha più importanza. L’idea di ciò che era possibile è sufficiente, dice Sutskever. ChatGPT ha cambiato gli orizzonti delle persone.

“L’AGI ha smesso di essere una parolaccia nel campo dell’apprendimento automatico”, afferma. “Questo è stato un grande cambiamento. L’atteggiamento che le persone hanno assunto storicamente è stato: l’intelligenza artificiale non funziona, ogni passo è molto difficile, bisogna lottare per ogni grammo di progresso. E quando si facevano grandi proclami sull’IA, i ricercatori dicevano: ‘Di cosa state parlando? Questo non funziona, quello non funziona. Ci sono così tanti problemi’. Ma con ChatGPT la sensazione è stata diversa”.

E questo cambiamento è iniziato solo un anno fa? “È successo grazie a ChatGPT”, dice. “ChatGPT ha permesso ai ricercatori di machine-learning di sognare”.

Evangelisti fin dall’inizio, gli scienziati di OpenAI hanno alimentato questi sogni con blog e conferenze. E sta funzionando: “Ora c’è gente che parla di quanto lontano si spingerà l’IA – gente che parla di AGI, o superintelligenza”. E non si tratta solo di ricercatori. “I governi ne stanno parlando”, dice Sutskever. “È pazzesco”.

Cose incredibili

Sutskever insiste sul fatto che tutto questo parlare di una tecnologia che non esiste ancora (e potrebbe non esistere mai) è una cosa positiva, perché rende più persone consapevoli di un futuro che lui dà già per scontato.

“Con l’IA si possono fare tante cose incredibili: automatizzare l’assistenza sanitaria, renderla mille volte più economica e mille volte migliore, curare tante malattie, risolvere il riscaldamento globale”, afferma. “Ma ci sono molti che sono preoccupati: ‘Mio Dio, le aziende di AI riusciranno a gestire questa tremenda tecnologia?'”.

Presentata in questo modo, l’AGI suona più come un genio che esaudisce i desideri che come una prospettiva reale. Pochi direbbero di no a salvare vite umane e a risolvere i cambiamenti climatici. Ma il problema di una tecnologia che non esiste è che si può dire tutto quello che si vuole su di essa.

Di cosa parla veramente Sutskever quando parla di AGI? “AGI non è un termine scientifico”, dice. “Vuole essere un confine utile, un punto di riferimento”.

“È l’idea…” inizia, poi si ferma. “È il punto in cui l’intelligenza artificiale è così intelligente che se una persona è in grado di svolgere un compito, anche l’intelligenza artificiale può farlo. A quel punto si può dire di avere un’intelligenza artificiale”.

Se ne parla, ma l’AGI rimane una delle idee più controverse del settore. Pochi danno per scontato il suo sviluppo. Molti ricercatori ritengono che siano necessarie importanti scoperte concettuali prima di vedere qualcosa di simile a ciò che Sutskever ha in mente – e alcuni credono che non lo vedremo mai.

Eppure è una visione che lo ha guidato fin dall’inizio. “Sono sempre stato ispirato e motivato dall’idea”, dice Sutskever. “All’epoca non si chiamava AGI, era come avere una rete neurale che fa tutto. Non ho sempre creduto che si potesse realizzare. Ma era la montagna da scalare”.

Sutskever traccia un parallelo tra il modo in cui operano le reti neurali e i cervelli. Entrambi ricevono dati, aggregano segnali da quei dati e poi, in base a qualche semplice processo (matematica nelle reti neurali, sostanze chimiche e bioelettriche nei cervelli), li diffondono o meno. È una semplificazione enorme, ma il principio è valido.

“Se ci si crede, se ci si permette di crederci, allora ci sono molte implicazioni interessanti”, dice Sutskever. “L’implicazione principale è che se si dispone di una rete neurale artificiale molto grande, questa dovrebbe fare molte cose. In particolare, se il cervello umano può fare qualcosa, anche una grande rete neurale artificiale potrebbe fare qualcosa di simile”.

“Tutto è conseguente se si prende questa premessa abbastanza seriamente”, dice. “E una grande parte del mio lavoro può essere spiegata da questo”.

Visto che stiamo parlando di cervelli, vorrei chiedere di uno dei post di Sutskever su X, il sito precedentemente noto come Twitter. Il feed di Sutskever si legge come una carrellata di aforismi: “Se apprezzi l’intelligenza al di sopra di tutte le altre qualità umane, ti troverai male”; “L’empatia nella vita e negli affari è sottovalutata”; “Il perfetto ha distrutto molte cose perfettamente buone”.

Nel febbraio 2022 ha scritto: “può darsi che le grandi reti neurali di oggi siano leggermente coscienti” (e Murray Shanahan, principal scientist di Google DeepMind e professore all’Imperial College di Londra, nonché consulente scientifico del film Ex Machina, ha risposto: “… nello stesso senso in cui può essere che un grande campo di grano sia leggermente pasta”).

Sutskever ride quando ne parlo. Stava trollando? Non lo stava facendo. “Conosce il concetto di cervello di Boltzmann?”, mi chiede.

Si riferisce a un esperimento di pensiero (ironico) della meccanica quantistica che prende il nome dal fisico del XIX secolo Ludwig Boltzmann, in cui si immagina che le fluttuazioni termodinamiche casuali dell’universo causino l’entrata e l’uscita di cervelli.

“Mi sembra che al momento questi modelli linguistici siano un po’ come un cervello di Boltzmann”, dice Sutskever. “Inizi a parlargli, parli per un po’; poi finisci di parlare, e il cervello in un certo senso…”. Fa un movimento di sparizione con le mani. Puff-bye-bye, cervello.

Sta dicendo che mentre la rete neurale è attiva – mentre si sta attivando, per così dire – c’è qualcosa? Chiedo.

“Penso che potrebbe essere così”, dice. “Non lo so per certo, ma è una possibilità che è molto difficile da contestare. Ma chi sa cosa sta succedendo, giusto?”.

AI, ma non come la conosciamo noi

Mentre altri si arrovellano sull’idea di macchine in grado di eguagliare l’intelligenza umana, Sutskever si sta preparando per macchine in grado di superarci. La chiama superintelligenza artificiale: “Vedranno le cose più profondamente. Vedranno cose che noi non vediamo”.

Ancora una volta, faccio fatica a capire cosa significhi davvero. L’intelligenza umana è il nostro punto di riferimento per l’intelligenza. Che cosa intende Sutskever per intelligenza più intelligente di quella umana?

“Abbiamo visto un esempio di superintelligenza molto ristretta in AlphaGo”, afferma. Nel 2016, l’intelligenza artificiale di DeepMind per i giochi da tavolo ha battuto Lee Sedol, uno dei migliori giocatori di Go al mondo, per 4-1 in una partita di cinque partite. “Ha capito come giocare a Go in modi diversi da quelli che l’umanità ha sviluppato collettivamente nel corso di migliaia di anni”, dice Sutskever. “Ha proposto nuove idee”.

Sutskever ricorda la famigerata mossa 37 di AlphaGo. Nella sua seconda partita contro Sedol, l’intelligenza artificiale ha fatto una mossa che ha lasciato perplessi i commentatori. Pensavano che AlphaGo avesse sbagliato. In realtà, aveva giocato una mossa vincente che nessuno aveva mai visto prima nella storia del gioco. “Immaginate questo livello di intuizione, ma su tutto”, dice Sutskever.

È questo pensiero che ha portato Sutskever a compiere il più grande cambiamento della sua carriera. Insieme a Jan Leike, un collega scienziato di OpenAI, ha creato un team che si concentrerà su ciò che chiamano superallineamento (superalignment). Allineamento è un gergo che significa far sì che i modelli di intelligenza artificiale facciano ciò che si vuole e niente di più. Superallineamento è il termine di OpenAI per indicare l’allineamento applicato alla superintelligenza.

L’obiettivo è quello di trovare una serie di procedure a prova di errore per costruire e controllare questa tecnologia futura. OpenAI dice che destinerà un quinto delle sue vaste risorse di calcolo al problema e lo risolverà in quattro anni.

“I metodi di allineamento esistenti non funzionano per i modelli più intelligenti degli esseri umani perché presuppongono fondamentalmente che gli esseri umani possano valutare in modo affidabile ciò che i sistemi di IA stanno facendo”, afferma Leike. “Man mano che i sistemi di IA diventano più capaci, si occuperanno di compiti più difficili”. E questo, secondo l’idea, renderà più difficile per gli esseri umani valutarli. “Formando il team di superallineamento con Ilya, ci siamo proposti di risolvere queste sfide future di allineamento”, spiega Leike.

“È importantissimo non solo concentrarsi sulle potenziali opportunità dei modelli linguistici di grandi dimensioni, ma anche sui rischi e sugli aspetti negativi”, afferma Dean, Chief Scientist di Google.

L’azienda ha annunciato il progetto a luglio con la tipica fanfara. Ma per alcuni si è trattato di un’ulteriore fantasia. Il post di OpenAI su Twitter ha attirato il disprezzo di importanti critici delle Big Tech, tra cui Abeba Birhane, che lavora sulla responsabilità dell’IA presso Mozilla (“Così tante parole altisonanti ma vacue in un solo post sul blog”); Timnit Gebru, cofondatore del Distributed Artificial Intelligence Research Institute (“Immaginate ChatGPT ancora più ‘super allineato’ con i tecnici di OpenAI”); e Margaret Mitchell, chief ethics scientist presso l’azienda di AI Hugging Face (“Il mio allineamento è più grande del tuo”). È vero che si tratta di voci di dissenso già note. Ma è un forte richiamo al fatto che, se alcuni vedono OpenAI in prima linea, altri la vedono in posizione marginale.

Ma per Sutskever il superallineamento è il passo successivo inevitabile. “È un problema irrisolto”, afferma. Ed è anche un problema su cui, a suo avviso, non lavorano abbastanza ricercatori di base nel campo dell’apprendimento automatico, come lui stesso. “Lo faccio per il mio interesse personale”, dice. “È ovviamente importante che qualsiasi superintelligenza costruita non diventi una canaglia. Chiaramente”.

Il lavoro sul superallineamento è appena iniziato. Secondo Sutskever, saranno necessari ampi cambiamenti in tutti gli istituti di ricerca. Ma ha già in mente un esempio per le protezioni che vuole progettare: una macchina che guarda le persone come i genitori guardano i loro figli. “A mio parere, questo è il gold standard”, dice. “È un’affermazione generalmente vera che le persone si preoccupano davvero dei bambini” (ha figli? “No, ma vorrei averne”, dice).

Il tempo a mia disposizione con Sutskever è quasi finito e penso che abbiamo concluso. Ma lui è in piena attività e ha un altro pensiero da condividere, che non mi aspettavo.

“Una volta superata la sfida delle IA disoneste, cosa succederà? C’è ancora spazio per gli esseri umani in un mondo con IA più intelligenti?”, afferma.

“Una possibilità – che può essere folle per gli standard odierni, ma che non lo sarà per quelli futuri – è che molte persone scelgano di diventare parte dell’IA”. Sutskever sostiene che questo potrebbe essere il modo in cui gli esseri umani cercano di tenere il passo. “All’inizio, solo le persone più audaci e avventurose proveranno a farlo. Forse altri seguiranno. Oppure no”.

Aspetta, cosa? Si sta alzando per andarsene. Lo farebbe? Glielo chiedo. Sarebbe uno dei primi? “Il primo? Non lo so”, dice. “Ma è una cosa a cui penso. La vera risposta è: forse”.

E dopo aver lasciato cadere il microfono, si alza ed esce dalla stanza. “È stato un piacere rivederti”, dice mentre se ne va.

Related Posts
Total
0
Share