Non ci sarà una vera intelligenza artificiale senza prima capire il cervello

Il neuroscienziato e imprenditore tecnologico Jeff Hawkins afferma di aver capito come funziona l’intelligenza e con il suo ultimo libro vuole aprire un confronto con tutti i laboratori di intelligenza artificiale del mondo sulle prospettive future del settore. 

di Will Douglas Heaven

La ricerca sull’AI ha sempre riguardato il tentativo di costruire macchine che pensassero, almeno sotto alcuni punti di vista. Ma stabilire quale sia la somiglianza tra l’intelligenza artificiale e quella biologica ha creato divisioni per decenni. I primi tentativi di costruire l’intelligenza artificiale hanno coinvolto processi decisionali e sistemi di archiviazione delle informazioni che erano vagamente ispirati dal modo in cui gli umani sembravano pensare. Le reti neurali profonde di oggi sono vagamente ispirate dal modo in cui i neuroni interconnessi si attivano nel cervello. 

La maggior parte di chi opera nel settore dell’intelligenza artificiale non si preoccupa troppo dei dettagli, afferma Jeff Hawkins, neuroscienziato e imprenditore tecnologico, che vuole cambiare questa situazione. Hawkins ha attraversato i due mondi delle neuroscienze e dell’intelligenza artificiale per quasi 40 anni. Nel 1986, dopo alcuni anni come ingegnere del software presso Intel, si presentò all’Università della California, a Berkeley, per iniziare un dottorato in neuroscienze, sperando di capire come funzionava l’intelligenza. 

Ma la sua ambizione si è scontrata con la realtà quando gli è stato detto che non c’era nessuno a lavorare a un progetto così grande. Demoralizzato, ha sostituito Berkeley con la Silicon Valley e nel 1992 ha fondato Palm Computing, che ha sviluppato il PalmPilot, un precursore degli smartphone odierni.

Il suo interesse per l’intelligenza umana non è mai venuto meno. Quindici anni dopo, è tornato a interessarsi di neuroscienze e ha fondato il Redwood Center for Theoretical Neuroscience (ora a Berkeley). Oggi dirige Numenta, un’azienda di ricerca neuroscientifica con sede nella Silicon Valley in cui lui e il suo team studiano la neocorteccia, la parte del cervello responsabile di tutto ciò che associamo all’intelligenza. Dopo una serie di scoperte negli ultimi anni, Numenta ha spostato la sua attenzione dal cervello all’intelligenza artificiale, applicando ciò che ha imparato sull’intelligenza biologica alle macchine.

Le idee di Hawkins hanno ispirato grandi nomi dell’AI, tra cui Andrew Ng, e ottenuto riconoscimenti da artisti del calibro di Richard Dawkins, che ha scritto un’entusiasta prefazione al nuovo libro di Hawkins A Thousand Brains: A New Theory of Intelligence, pubblicato il 2 marzo. Ho fatto una lunga chiacchierata con Hawkins su Zoom sul significato della sua ricerca sul cervello umano per l’intelligenza artificiale. Non è il primo imprenditore della Silicon Valley a pensare di avere tutte le risposte e probabilmente non tutti saranno d’accordo con le sue conclusioni. Ma le sue idee potrebbero scuotere il mondo dell’AI.  

Perché pensa che l’AI stia andando nella direzione sbagliata?

Questa è una domanda complicata. Non sono di certo un critico dell’intelligenza artificiale di oggi. Penso sia grandiosa, utile, ma semplicemente non ritengo sia intelligente. Il mio interesse principale è il cervello. Mi sono innamorato del cervello decenni fa. Ho sempre pensato che prima di creare l’intelligenza artificiale, dobbiamo capire cosa sia effettivamente l’intelligenza, e il modo migliore per farlo è studiare il cervello.

Nel 1980, più o meno, mi sono reso conto che gli approcci all’intelligenza artificiale non avrebbero portato alla vera intelligenza. E ho provato la stessa sensazione in tutte le diverse fasi di sviluppo dell’AI. Guardo i progressi compiuti di recente con il deep learning: impressionanti, ma fondamentalmente carenti. Penso di sapere cos’è l’intelligenza, penso di sapere come funziona il cervello e l’AI non si sta muovendo in questa direzione.

Sta dicendo che per costruire un’intelligenza artificiale dobbiamo in qualche modo ricreare un cervello?

No, non credo che costruiremo copie dirette del cervello e non è quello che propongo.  Ma sono dell’idea che avremo bisogno di costruire macchine che funzionino secondo principi simili. Gli unici esempi che abbiamo di sistemi intelligenti sono i sistemi biologici. Perché non replicarli? È come se si mostrasse un computer per la prima volta e uno  dicesse: “È fantastico! Costruirò qualcosa di simile”, ma invece di analizzarlo a fondo, cercando di capire come funziona, se ne va e inizi a provare a creare qualcosa da zero.

Cosa fa il cervello di cruciale per l’intelligenza che a suo parere l’intelligenza artificiale dovrebbe riproporre?

Ci sono quattro requisiti base dell’intelligenza. Il primo è imparare muovendosi: non possiamo percepire tutto ciò che ci circonda in una volta. Dobbiamo muoverci per costruire un modello mentale delle cose, anche se si tratta solo di muovere gli occhi o le mani. Questa è chiamata incarnazione.

Successivamente, questo input sensoriale viene assorbito da decine di migliaia di colonne corticali, ciascuna con un’immagine parziale del mondo. Competono e si combinano tramite una sorta di sistema di voto per costruire un punto di vista generale. Questa è l’idea dei mille cervelli. In un sistema di intelligenza artificiale, ciò potrebbe coinvolgere una macchina che controlla diversi sensori – visione, tocco, radar e così via – per ottenere un modello più completo del mondo. Tuttavia, ci saranno in genere molte colonne corticali per ogni senso, come la visione. 

Poi c’è l’apprendimento continuo, in cui si imparano cose nuove senza dimenticare quelle precedenti. I sistemi di intelligenza artificiale di oggi non possono farlo. Infine, strutturiamo la conoscenza utilizzando quadri di riferimento, il che significa che la nostra conoscenza del mondo è relativa al nostro punto di vista. Se faccio scorrere il dito sul bordo della tazza di caffè, posso prevedere che ne sentirò il bordo, perché so dove si trova la mia mano rispetto alla tazza.

Il suo laboratorio è recentemente passato dalle neuroscienze all’intelligenza artificiale. Corrisponde alla sua teoria dei mille cervelli che si uniscono?

In buona misura, sì. Fino a due anni fa, se entravi nel nostro ufficio, ci occupavamo solo di neuroscienza. Poi abbiamo capito di saperne abbastanza sul cervello per iniziare ad applicarlo all’intelligenza artificiale.

Che tipo di lavoro sta facendo sull’AI?

Una delle prime cose che abbiamo esaminato è stata il concetto di struttura sparsa. In qualsiasi momento, solo il 2 per cento dei nostri neuroni si attiva. Abbiamo applicato questa idea alle reti di apprendimento profondo e stiamo ottenendo risultati straordinari, a livello di velocità 50 volte maggiori sulle reti esistenti. La “sparsità” offre anche reti più robuste e un consumo energetico inferiore. Ora stiamo lavorando sull’apprendimento continuo.

È interessante la sua visione del movimento come base dell’intelligenza. Significa che l’AI ha bisogno di un corpo? Un robot, presumibilmente?

In futuro penso che la distinzione tra AI e robotica scomparirà. Ma in questo momento preferisco la parola “incarnazione”, perché quando si parla di robot si evocano immagini di robot simili a umani, che non è quello di cui sto parlando. L’aspetto fondamentale è che l’AI dovrà avere sensori ed essere in grado di spostarli rispetto a se stessa e alle cose che sta modellando. Ma si potrebbe prospettare anche un’AI virtuale che si muove su Internet.

Questa idea è molto diversa dalle convinzioni popolari sull’intelligenza, di un cervello separato da un corpo.

La questione è importante. Il cervello usa gli stessi meccanismi per muovere il dito su una tazza di caffè, muovere gli occhi, o pensare a un problema concettuale. Il cervello si muove attraverso quadri di riferimento per ricordare fatti che ha immagazzinato in luoghi diversi. L’aspetto fondamentale è che qualsiasi sistema intelligente, indipendentemente dalla sua forma fisica, apprende un modello del mondo percependone diverse parti, muovendosi al suo interno. Il fondamento è questo e non ce ne possiamo allontanare. Che assomigli a un robot umanoide o sia solo un computer che naviga su Internet, sono tutti uguali.

Qual è la posizione dei ricercatori di intelligenza artificiale riguardo a queste tematiche?

La stragrande maggioranza dei ricercatori di intelligenza artificiale non abbraccia davvero l’idea che il cervello sia importante. Voglio dire, che è vero che hanno scoperto le reti neurali tempo fa e sono state ispirate dal cervello, ma la maggior parte di loro non sta cercando di replicare il cervello. Si cerca solo quello che funziona e le reti neurali di oggi funzionano abbastanza bene.

Inoltre, la maggior parte delle persone che lavorano all’intelligenza artificiale ha pochissima comprensione delle neuroscienze. Non è sorprendente, perché è un settore davvero complesso. Non è qualcosa che si comprende passando un paio di giorni a leggere. La stessa neuroscienza ha lottato aspramente per capire cosa diavolo sta succedendo nel cervello.

Ma uno dei grandi obiettivi della scrittura di questo libro è che ogni laboratorio di intelligenza artificiale nel mondo lo legga e inizi a discutere di queste idee. Le accettiamo? Non siamo d’accordo? Questo confronto non è stato davvero possibile prima. Voglio dire, questa ricerca sul cervello ha meno di cinque anni. Spero che sia un vero punto di svolta.

Come potrebbe cambiare la ricerca sull’AI?

In quanto tale, l’AI non ha una definizione di cosa sia l’intelligenza. Il test di Turing, per esempio, ha provocato una serie di danni. Anche oggi, ci concentriamo ancora così tanto su benchmark e trucchi intelligenti. Non sto cercando di dire che non è utile. Un’intelligenza artificiale in grado di rilevare le cellule tumorali è eccezionale. Ma questa è intelligenza? No.

Nel libro parlo dei robot su Marte che costruiscono un habitat per gli esseri umani. Provo a immaginare che tipo di intelligenza artificiale è necessaria per farlo. È possibile? È totalmente possibile. Penso che alla fine del secolo avremo macchine del genere. La domanda è come possiamo allontanarci da ragionamento del tipo “Ecco un altro stratagemma” e passare ai fondamenti necessari per costruire il futuro.

Cosa ha sbagliato Turing nella sua impostazione sull’intelligenza artificiale?

Voglio solo dire che se si legge il suo lavoro originale, stava fondamentalmente cercando di convincere la gente a smetterla di discutere con lui sulla possibilità di costruire una macchina intelligente. Ma, al di là di questo, la domanda di fondo rimane: una macchina può fare la stessa cosa di un essere umano? Allora giocare a Go è stato un grande risultato per l’AI. Veramente?  [ride]

Il problema con tutte le metriche basate sulle prestazioni, e il test di Turing è una di queste, è che evita semplicemente la conversazione o la grande domanda su cosa sia un sistema intelligente. Se riesci a ingannare qualcuno, se riesci a risolvere un compito con una sorta di ingegneria intelligente, allora hai raggiunto l’obiettivo, ma non hai necessariamente fatto progressi verso una comprensione più profonda di cosa significa essere intelligenti.

Anche concentrarsi sull’esperienza umana è un problema?

Penso che in futuro molte macchine intelligenti non faranno nulla di quello che fanno gli umani. La maggior parte sarà semplice, non più grande di un topo o un gatto. Quindi concentrarsi sul linguaggio, sull’esperienza umana e su tutte queste cose per superare il test di Turing è relativamente irrilevante per costruire una macchina intelligente. È rilevante, invece, se si vuole costruire una macchina simile all’intelligenza umana, ma non credo che sia la direzione intrapresa.

Nel libro racconta una storia su una proposta di computer palmari a un capo di Intel che non riusciva a vedere a cosa servissero. Quindi cosa faranno queste future intelligenze artificiali?

Non lo so. Nessuno lo sa. Ma non ho dubbi che troveremo un miliardo di cose utili da fare per le macchine intelligenti, proprio come abbiamo fatto per telefoni e computer. Nessuno aveva previsto negli anni Quaranta o Cinquanta cosa avrebbero fatto i computer. Sarà lo stesso con l’AI. Preferisco guardare al lungo periodo e chiedermi: “A che serve costruire macchine intelligenti?” Qual è lo scopo della vita?”. Siamo solo punti nell’universo. Mi faccio queste domande da quando ero un ragazzino. Perché ci preoccupiamo di qualcosa? Perché stiamo facendo tutto questo? Quale dovrebbe essere il nostro obiettivo come specie?

Penso che non si tratti di preservare il pool genetico, ma di preservare la conoscenza. E se la si pensa in questo modo, le macchine intelligenti sono essenziali. Non siamo eterni, ma le nostre macchine potrebbero esserlo. Trovo stimolante questo tipo di riflessione. Voglio uno scopo nella mia vita. Penso che l’AI, come la immagino io, non quella odierna, sia essenzialmenteun modo per preservare noi stessi per un tempo e un luogo che ancora non conosciamo.

Immagine di: Patrick T Powers

(rp)

Related Posts
Total
0
Share