Non ci si può fidare dei sistemi di IA basati solo sul deep learning

In questa intervista, Gary Marcus, un leader nel settore della IA, discute su come si possono raggiungere forme di intelligenza generale artificiale e come questo risultato potrebbe rendere le tecnologie più affidabili.

di Karen Hao

Gary Marcus non è impressionato dal clamore che si è creato intorno all’apprendimento profondo. Anche se il professore della New York University crede che la tecnica abbia avuto un ruolo importante nel far progredire l’IA, è anche dell’avviso che l’attuale eccessiva enfasi del campo di studi su di essa possa portare alla sua scomparsa.

Marcus, un neuroscienziato che ha trascorso la sua carriera in prima linea nella ricerca sull’intelligenza artificiale, cita preoccupazioni di ordine tecnologico ed etico. Da un punto di vista tecnologico, l’apprendimento profondo può essere efficace nel mimare i compiti percettivi del cervello umano, come il riconoscimento di immagini o parole.

Ma non è all’altezza in altri compiti, come la comprensione di conversazioni o nello stabilire relazioni causali. Per creare computer dotati di quella ora definita intelligenza generale artificiale o forte, l’apprendimento profondo deve essere combinato con altri metodi.

Quando un sistema di intelligenza artificiale non comprende veramente i suoi compiti o il mondo che lo circonda, si potrebbero creare situazioni pericolose. Anche i minimi cambiamenti imprevisti nell’ambiente di un sistema potrebbero limitarne il funzionamento. 

Ci sono già stati innumerevoli esempi di situazioni simili: difficoltà a individuare chi semina odio in rete, sistemi di ricerca del lavoro che perpetuano la discriminazione e auto a guida autonoma che si sono schiantate, a volte uccidendo il conducente o un pedone.

La ricerca dell’intelligenza generale artificiale non è solo un interessante argomento di studio, ma ha ricadute serie nel mondo reale.

Nel loro nuovo libro, Rebooting AI, Marcus e il suo collega Ernest Davis propongono un nuovo percorso. A loro parere, non siamo affatto vicini al raggiungimento di una forma di intelligenza generale, ma allo stesso tempo sono fiduciosi che alla fine potremo arrivarci.

Ho parlato con Marcus delle debolezze dell’apprendimento profondo, di quanto ancora c’è da capire della mente umana e del perché del suo ottimismo di fondo.

Gary Marcus Per gentile concessione di Gary Marcus

Perché si dovrebbe arrivare all’intelligenza generale? E’ innegabile che l’intelligenza artificiale debole abbia già generato molto valore per noi.

E continuerà a generarne ancora di più. Ma ci sono molti problemi in cui l’IA ha mostrato i propri limiti, per esempio nella comprensione del linguaggio naturale conversazionale, nell’assistenza generale nel mondo virtuale, o in applicazioni robotiche come Rosie che dovrebbe essere in grado di aiutare a mettere in ordine casa o preparare da mangiare. 

Ma in questi casi siamo già al di fuori dell’ambito di ciò che possiamo fare con l’intelligenza artificiale debole. Una domanda più interessante è capire se l’intelligenza artificiale debole permetta di costruire auto senza conducente sicure. La realtà finora è che questa forma di intelligenza artificiale fronteggia serie difficoltà con le presunte “anomalie”, come nel caso della guida, che in realtà è un problema abbastanza limitato.

Più in generale, penso che tutti vorremmo che l’IA ci aiutasse a fare nuove scoperte in campo medico. A oggi, non è chiaro se le attuali tecnologie ci porteranno dove vogliamo arrivare, perché la biologia è un settore ad alta complessità. Si deve essere in grado di capire quello che si muove nella ricerca.

Gli scienziati hanno una comprensione causale del tipo di interazione delle reti e delle molecole; possono sviluppare teorie su orbite e pianeti o altro. Con l’intelligenza artificiale debole, non siamo in grado di far sì che le macchine arrivino a questo livello di innovazione. Con l’IA generale, potremmo essere in grado di rivoluzionare la scienza, la tecnologia, la medicina. Quindi penso che lavorare verso l’IA generale sia davvero un progetto degno.

Sta usando l’IA generale per fare riferimento a un’IA forte?

L’intelligenza artificiale generale consiste nell’avere l’IA in grado risolvere in autonomia i nuovi problemi e di dimostrare capacità di ragionamento rapido su argomenti diversi, dalla politica alla medicina, allo stesso modo di come è in grado di fare qualsiasi persona di media cultura. 

Se si vuole costruire qualcosa che sia abbastanza affidabile per affrontare un mondo in costante cambiamento, probabilmente è necessario almeno avvicinarsi all’intelligenza generale.

In realtà, siamo abbastanza lontani dal raggiungere questo obiettivo. AlphaGo può giocare molto bene su una scacchiera 19×19, ma deve essere riprogrammato per giocare su una scacchiera rettangolare. Oppure, si prenda in considerazione un sistema di apprendimento profondo di medio livello: può riconoscere un elefante fintanto che l’animale è ben illuminato o se ne può vedere la forma. Ma se si mette la sagoma dell’elefante, potrebbe non essere più in grado di riconoscerlo.

Come accennato nel suo libro, l’apprendimento profondo non può davvero raggiungere l’IA generale perché manca della comprensione profonda.

Nella scienza cognitiva parliamo di modelli cognitivi degli oggetti nel mondo circostante. Per esempio, se sono seduto in una stanza d’albergo, mi guardo intorno e vedo che c’è un armadio, un letto, una televisione montata in modo insolito. So che ci sono tutte queste cose qui, come sono disposte e non mi limiti semplicemente a registrarne la presenza. 

Ho delle idee su come funziona il mondo esterno e delle relazioni al suo interno. I miei modelli cognitivi non sono perfetti, ma funzionano abbastanza bene e mi permettono di fare molte inferenze che guidano le mie azioni quotidiane.

All’estremo opposto si trovano i sistemi di gioco Atari, prodotti da DeepMind, in cui si memorizza ciò che si deve fare grazie alla presenza di pixel in determinati punti dello schermo. Se si hanno abbastanza dati, sembra che tutto proceda nel modo giusto, ma in realtà si tratta di una comprensione molto superficiale. La prova è che se si spostano gli oggetti di tre pixel, diventa difficile giocare. Il cambiamento destabilizza il sistema. Questo è l’opposto della comprensione profonda.

Sta suggerendo di tornare all’IA classica per risolvere questa sfidaQuali sono i punti di forza dell’IA classica che dovrebbero essere valorizzati?

Ce ne sono alcuni. Innanzitutto, l’IA classica è in realtà un framework per la costruzione di modelli cognitivi del mondo in cui è possibile fare inferenze. La seconda cosa è che l’IA classica è perfettamente a suo agio con le regole. Al momento c’è una tendenza prevalente nella ricerca sull’apprendimento profondo che tende a evitare le regole.

Si vuole fare tutto con le reti neurali e nulla con qualcosa che assomigli alla programmazione classica. Ma ci sono problemi che vengono sistematicamente risolti in questo modo a cui nessuno presta attenzione, come organizzare un percorso su Google Maps.

In realtà abbiamo bisogno di entrambi gli approcci. L’apprendimento automatico ha buone prestazioni con i dati, ma è molto scarso nei compiti di astrazione, svolti bene invece dai programmi per computer. L’IA classica riesce bene nell’astrazione, ma deve essere tutto codificato a mano e non è possibile inserire manualmente tutte le informazioni in circolazione. Quindi sembra evidente che sia da auspicare una sorta di sintesi che metta insieme questi due approcci.

Questo discorso si lega al capitolo in cui Lei spiega che le nostre menti sono costituite da molti sistemi disparati che funzionano in modi diversi.

Effettivamente i sistemi cognitivo che possediamo fanno ognuno una cosa diversa. Allo stesso modo, le controparti nell’intelligenza artificiale devono essere progettate per affrontare i singoli problemi con caratteristiche specifiche per risolvere quel problema.

In questo momento le persone stanno provando a utilizzare con un’unica tecnologia situazioni che sono del tutto diverse. Comprendere una frase è completamente differente dal riconoscere un oggetto. Ma si sta cercando di utilizzare l’apprendimento profondo per fare entrambe le cose.

Si tratta di problemi qualitativamente diversi da un punto di vista cognitivo e, a dire il vero, sono in parte sbalordito da quanta poca consapevolezza di questo aspetto generale ci sia da parte della comunità scientifica. Perché aspettarsi che un proiettile d’argento funzionerà per tutto questo? Non è realistico e non rivela una comprensione della sfida rappresentata dall’IA.

Un altro problema che solleva è la necessità che i sistemi di intelligenza artificiale comprendano le relazioni causali. Pensa che la risposta arriverà dal deep learning, dall’IA classica o da qualcosa di completamente nuovo?

Ci troviamo di nuovo in un campo ostico per l’apprendimento profondo, che non è in grado di fornire spiegazioni sul perché le cose accadano, ma si limita a definire una probabilità su ciò che potrebbe accadere in una determinata circostanza.

Il tipo di cose di cui stiamo parlando è il seguente: se guardo il cavalletto su cui si trova la televisione dell’hotel e penso di segargli una gamba, so già che il cavalletto si ribalterà e la televisione cadrà con essa. Questo è un classico ragionamento causale.

L’IA classica ci offre alcuni strumenti per arrivare a svilupparlo. Può rappresentare, per esempio, cos’è una relazione di supporto e cosa sta succedendo. Ma non sto dicendo che è in grado di anticipare quanto succederà. Il problema è che l’IA classica dipende dalla completezza delle informazioni che riceve, altrimenti ha difficoltà a compiere un’inferenza simile a quella che ho fatto io, senza essere effettivamente in grado di vedere l’intero cavalletto.

A differenza mia, che sono in grado di creare scorciatoie mentali, deducendo pezzi del cavalletto che non riesco nemmeno a vedere, l’IA non ha strumenti per farlo.

Un altro concetto che sviluppa è l’idea che gli umani abbiano una conoscenza innata. Come può essere incorporata nei sistemi di intelligenza artificiale?

Alla nascita, l’uomo ha un cervello strutturato in modo molto elaborato. Non è una dotazione già prefissata, ma la natura costruisce la prima bozza, quella più approssimativa. Quindi l’apprendimento rivede tale bozza per il resto della vita.

Una bozza del cervello ha già alcune capacità. Un piccolo stambecco di poche ore può arrampicarsi sul fianco di una montagna senza precipitare. Chiaramente ha una determinata comprensione dello spazio tridimensionale, del proprio corpo e dell’interrelazione tra i due. Un patrimonio di non poco conto.

Questa riflessione è alla base del motivo per cui penso che abbiamo bisogno di ibridi. È difficile vedere come potremmo costruire un robot che funzioni bene nel mondo senza una conoscenza analoga fin dall’inizio, invece di iniziare con una lavagna vuota da riempire con continue dosi di esperienza.

Per gli umani, la nostra conoscenza innata proviene dai genomi che si sono evoluti nel tempo. Per i sistemi di intelligenza artificiale, si deve seguire una strada diversa. Alcune alternative possono derivare da regole su come costruiamo i nostri algoritmi e sulle strutture di dati manipolate da tali algoritmi. Altre potrebbero essere legate alle conoscenze di cui dotiamo le macchine.

Nel suo libro lei si affida in buona parte alla costruzione di sistemi affidabili. Perché è così importante?

Perché credo che stiamo vivendo un momento storico in cui si concede, erroneamente, una fiducia smisurata al software.  Tra cento anni, l’IA meriterà la nostra fiducia, e forse prima, ma in questo momento è pericolosa, e non nel modo in cui ne parla Elon Musk. Si pensi, per esempio, ai sistemi di colloquio di lavoro che discriminano le donne.

Voglio un’intelligenza artificiale migliore da subito. Non mi arrendo alla prospettiva di passare un lungo inverno dell’intelligenza artificiale in cui ci si rende conto che questi approcci non funzionano e non si fa nulla al riguardo.

In un certo senso, il suo libro sembra davvero improntato all’ottimismo, perché crede nella possibilità di costruire un’IA affidabile. E’ sufficiente quindi cambiare direzione?

A dire il vero, il libro è pessimista a breve termine e ottimista a lungo termine. Ritengo che i problemi descritti nel libro possano essere risolti se si offrono una serie di alternative sulle potenziali risposte giuste. Se ciò accadrà, il mondo sarà un posto migliore.

Immagine: Per gentile concessione di Penguin Random House

(rp)

Related Posts
Total
0
Share