Troppo clamore per Gato

È un nuovo modello di Intelligenza Artificiale decisamente trendy. Ma rischia di sviare la discussione sul ruolo (e i pericoli) dell’AI

Melissa Heikkilä

All’inizio di questo mese, DeepMind ha presentato un nuovo modello di intelligenza artificiale “generalista” chiamato Gato. Il modello ha più funzionalità che vanno dal giocare a videogiochi Atari a impilare blocchi con un vero braccio robotico, ha annunciato il laboratorio di intelligenza artificiale di proprietà di Alphabet. Tutto sommato, Gato può svolgere 604 compiti diversi. Indubbiamente impressionante, ma i riconoscimenti sembrano essersi spinti troppo avanti.

Nando de Freitas, uno dei migliori ricercatori di DeepMind, in un suo articolo su Gato non si è di certo contenuto. “Il gioco è finito!” ha twittato, suggerendo che ora c’è un chiaro percorso da Gato all’intelligenza artificiale generale, o AGI, un vago concetto di sviluppo di un’AI di livello umano o sovrumanoIl modo per costruire AGI, ha affermato, è principalmente una questione di scala: realizzare modelli come Gato più grandi e migliori

Non sorprende che l’annuncio di de Freitas abbia innescato una copertura stampa sul fatto che DeepMind è “al limite” dell’intelligenza artificiale a livello umano. Questa non è la prima volta che l’hype ha superato la realtà. Altri nuovi entusiasmanti modelli di intelligenza artificiale, come il generatore di testo GPT-3 di OpenAI e il generatore di immagini DALL-E, hanno visto affermazioni altrettanto grandiose. Ma per molti studiosi del settore, questa impostazione del discorso mette in ombra altre importanti aree di ricerca nell’AI.

In effetti, Gato ha delle caratteristiche originali. Alcuni modelli hanno iniziato a mescolare diverse abilità: DALL-E, per esempio, genera immagini da descrizioni testuali. Altri utilizzano un’unica strategia di allenamento per imparare a riconoscere immagini e frasi. E AlphaZero di DeepMind ha imparato a giocare a Go, scacchi e shogi. 

La differenza cruciale è che questi sistemi potevano apprendere solo un compito alla volta. Dopo aver imparato a giocare a Go, AlphaZero ha dovuto dimenticare tutto prima di imparare a giocare a scacchi e così via. Non poteva fare entrambi i giochi contemporaneamente. Invece Gato può passare da un compito all’altro senza perdere un’abilità prima di impararne un’altra. È un piccolo passo avanti, ma significativo.

Il limite di Gato è che non esegue i compiti nel modo in cui i modelli riescono a fare solo una cosa. I robot devono ancora acquisire la “conoscenza del buon senso” su come funziona il mondo dal testo, afferma Jacob Andreas, un ricercatore del MIT specializzato in intelligenza artificiale ed elaborazione del linguaggio naturale e del parlato.  

Questa capacità potrebbe tornare utile nei robot che assistono le persone in casa, per esempio. “Se ci si trova in una cucina e si chiede loro di preparare una tazza di tè per la prima volta, potrebbero sapere come muoversi per prepararla e in quale armadietto è probabile che si trovino le bustine di tè”, dice Andreas. 

Alcuni ricercatori esterni hanno espresso seri dubbi nei confronti dell’affermazione di de Freitas. “Non parlerei assolutamente di ‘intelligenza’“, afferma Gary Marcus, un ricercatore di AI. “Il clamore intorno a Gato dimostra che il settore è pervaso da un’inutile ‘cultura trionfale’. I modelli di deep learning che spesso generano più entusiasmo sul potenziale per raggiungere l’intelligenza a livello umano commettono errori che se commessi da una persona si direbbe che c’è qualcosa che non va in lei“. 

Anche i colleghi di DeepMind di de Freitas, Jackie Kay e Scott Reed, che hanno lavorato con lui a Gato, sono stati più cauti quando ho chiesto loro direttamente se Gato si stesse dirigendo verso l’AGI. “In realtà non penso che sia davvero fattibile fare previsioni con questo genere di cose. Cerco di evitarlo. È come prevedere il mercato azionario”, ha detto Kay e Reed ha sostanzialmente confermato.

In un certo senso, il fatto che DeepMind abbia definito Gato un sistema “generalista” potrebbe averlo reso una vittima dell’eccessivo clamore del settore dell’intelligenza artificiale attorno all’AGI. I sistemi di intelligenza artificiale di oggi sono chiamati “stretti”, il che significa che possono eseguire solo una serie specifica e ristretta di attività come la generazione di testo

Alcuni esperti di tecnologia, tra cui alcuni di DeepMind, pensano che un giorno gli esseri umani svilupperanno sistemi di intelligenza artificiale “più ampi” che saranno in grado di funzionare come o anche meglio degli umani. Anche se viene chiamata intelligenza artificiale generale, c’è chi sostiene che sia come credere nella magia. Molti dei migliori ricercatori, come Yann LeCun, responsabile scientifico dell’IA di Meta, si chiedono se sia possibile.

Gato è “generalista”, nel senso che può fare tante cose diverse contemporaneamente. Ma se questo vuol dire che un’AI può adattarsi in modo significativo a compiti diversi da quelli su cui è stato addestrato il modello, allora, secondo Andreas del MIT, siamo ancora abbastanza lontani dall’essere in grado di farlo. Aumentare le dimensioni dei modelli, inoltre, non permetterà di risolvere il problema dell’”apprendimento permanente”, vale a dire che una volta appresa un’abilità il modello ne comprende tutte le implicazioni e utilizza questa conoscenza per tutte le nuove decisioni che prende.

Il clamore attorno a strumenti come Gato è dannoso per lo sviluppo generale dell’AI, sostiene Emmanuel Kahembwe, un ricercatore di intelligenza artificiale e robotica che appartiene all’organizzazione Black in AI cofondata da Timnit Gebru. A suo parere, ci sono molti argomenti interessanti che sono lasciati da parte, che sono sottofinanziati, che meritano più attenzione da parte delle grandi aziende tecnologiche.

“AGI evoca qualcosa di profondamente umano: l’idea che possiamo diventare più di quello che siamo, costruendo strumenti che ci spingono verso l’alto”, afferma Vilas Dhar, presidente della Patrick J. McGovern Foundation, un ente di beneficenza che finanzia progetti di intelligenza artificiale permanenti. “La motivazione è encomiabile, ma non deve distrarci dal fatto che abbiamo problemi reali da affrontare oggi che non possono fare a meno del contributo dell’AI”.

Immagine: Pixabay

(rp)

Related Posts
Total
0
Share