Si può insegnare a una macchina a pensare?

La costruzione di un’intelligenza generale artificiale è un problema complesso, ma una prima mossa importante è impedire agli attuali modelli di intelligenza artificiale di perpetuare il razzismo, il sessismo e altri pregiudizi dannosi.

di Gideon Lichfield, Karen Hao e Will Douglas Heaven

L’intelligenza artificiale è diventata una parte importante delle nostre vite, ma quella che alimenta le previsioni del tempo, il filtro Instagram o la playlist Spotify preferita è ben lontana dalle macchine pensanti iper intelligenti su cui i pionieri del settore hanno riflettuto per decenni. Il deep learning, la tecnologia che sta guidando l’attuale boom dell’AI, può addestrare le macchine a diventare abili in tutti i tipi di compiti. Ma solo uno alla volta. E poiché la maggior parte dei modelli di intelligenza artificiale allena le proprie competenze su migliaia o milioni di esempi esistenti, si finisce per replicare modelli all’interno dei dati storici, compresi i problemi, come l’emarginazione delle persone di colore e delle donne.

Tuttavia, sistemi come il campione di giochi da tavolo AlphaZero e il sempre più convincente generatore di testi falsi GPT-3 hanno alimentato il dibattito su quando gli umani creeranno un’intelligenza artificiale generale, vale a dire macchine multitasking, in grado di pensare e ragionare da sole. L’idea divide. Al di là della risposta a come potremmo sviluppare tecnologie capaci di buon senso o di auto-miglioramento si pone un’altra domanda: chi trae davvero beneficio dalla replicazione dell’intelligenza umana in una mente artificiale? 

“La maggior parte del valore che viene generato dall’intelligenza artificiale oggi sta tornando alle aziende e non abbiamo davvero capito come convertire quel valore o distribuirlo ad altre persone”, afferma Karen Hao, esperta di AI di “MIT Technology Review”.

In questo podcast di “Deep Tech”, Karen Hao e Will Douglas Heaven, caporedattore per l’intelligenza artificiale, si uniscono al direttore, Gideon Lichfield, per discutere delle diverse scuole di pensiero sulla possibilità o meno di un’intelligenza generale artificiale e su cosa ci vorrebbe per arrivarci.

Gideon Lichfield: L’intelligenza artificiale ora è così onnipresente che probabilmente non si pensa nemmeno al fatto che la si sta usando. Le ricerche sul web, Google Traduttore, assistenti vocali come Alexa e Siri, quei piccoli filtri carini su Snapchat e Instagram, i social media, gli avvisi della banca, le raccomandazioni Amazon. le playlist di Spotify, le indicazioni stradali, le previsioni del tempo non sono altro che AI.

Ed è tutto ciò che potremmo chiamare “intelligenza artificiale stupida”, non vera intelligenza. In realtà solo macchine copiatrici: algoritmi che hanno imparato a fare un lavoro specifico essendo stati addestrati su migliaia o milioni di esempi corretti. Su alcune di queste tecnologie, come il riconoscimento facciale e vocale, sono già più accurati degli umani. Tutto questo progresso ha rinvigorito un vecchio dibattito sul campo: possiamo creare intelligenze reali, macchine che possano pensare autonomamente da sole? 

Will Douglas Heaven: Costruire una macchina in grado di pensare e fare le stesse cose delle persone è stato l’obiettivo dell’AI fin dall’inizio, ma spesso si è passati per dei fallimenti. Quindi questa idea di intelligenza artificiale generale è diventata molto contestata, anche se ora sta tornando. Ciò è in gran parte dovuto al successo del deep learning nell’ultimo decennio. In particolare grazie a sistemi come Alpha Zero di DeepMind e GPT-3, il grande modello linguistico di OpenAI, che può imitare il nostro modo di scrivere. Ciò ha spinto le persone, soprattutto nell’ultimo anno, a intervenire e a porre nuovamente queste domande. Siamo sul punto di costruire l’intelligenza artificiale generale?

G. L.: Parliamo del GPT-3, che Will ha appena menzionato. È un algoritmo al quale basta dare alcune parole e sputerà paragrafi e paragrafi di testi sullo stile richiesto. Ma cosa c’è di così straordinario dal punto di vista dell’intelligenza artificiale? Cosa fa che non si poteva fare prima? 

Karen Hao: A mio parere, le scoperte che hanno portato a GPT-3 sono effettivamente avvenute parecchi anni prima. Nel 2017, la principale svolta che ha innescato un’ondata di avanzamento nell’elaborazione del linguaggio naturale si è verificata con la pubblicazione del documento che ha introdotto l’idea dei trasformatori. Il modo in cui un algoritmo trasformatore si occupa del linguaggio è guardare milioni o addirittura miliardi di esempi, di frasi di struttura di paragrafo o, forse anche di struttura di codice, estraendo gli schemi e iniziando a prevedere a un livello davvero impressionante quali frasi hanno più senso insieme. Per questa ragione costruisce paragrafi e saggi davvero lunghi. 

Quello che penso che GPT-3 abbia fatto diversamente è il fatto che OpenAI non si limita ad addestrare GPT-3 con più esempi di parole da Wikipedia o da giornali come il “New York Times” o dai forum di Reddit, ma lo stanno anche esponendo a modelli di frase, guardando a ciò che ha senso come paragrafo introduttivo rispetto a un paragrafo conclusivo. Quindi sta solo ottenendo molte più informazioni e iniziando davvero a imitare molto da vicino il modo in cui gli umani scrivono, o come sono composti gli spartiti musicali, o come viene esercitata la codifica. 

G. L.: E prima dei trasformatori, che possono estrarre modelli da tutti questi diversi tipi di strutture, cosa faceva l’AI? 

K. H.: Prima, l’elaborazione del linguaggio naturale era in realtà molto più elementare. Quindi i trasformatori sono una specie di tecnica auto-supervisionata in cui all’algoritmo non viene detto esattamente cosa cercare nel linguaggio. Sta solo cercando schemi in autonomia e ciò che pensa siano le caratteristiche ripetitive della composizione linguistica. Ma prima c’erano in realtà molti più approcci al linguaggio supervisionati e codificati in cui le persone insegnavano alle macchine: “questi sono nomi, questi sono aggettivi”. 

Sfortunatamente, attribuire a ogni parola un’etichetta, è un processo molto laborioso e alla macchina deve essere insegnato manualmente come costruire queste cose. Un meccanismo simile ha limitato la quantità di dati di cui queste tecniche potevano alimentarsi. Per questa ragione i sistemi linguistici non erano di buon livello. 

G. L.: Quindi torniamo a quella distinzione tra apprendimento supervisionato e auto-supervisionato, che rappresenta una parte abbastanza importante dei progressi verso qualcosa che potrebbe diventare un’intelligenza generale. Will, come hai scritto nel tuo articolo, c’è molta ambiguità su ciò che intendiamo anche quando diciamo intelligenza artificiale generale. Quali sono le opzioni? 

W. D. H.: C’è una sorta di spettro. Voglio dire, da un lato, ci sono sistemi che possono fare molte delle cose che l’intelligenza artificiale restrittiva o stupida può fare oggi, ma quasi tutte una alla volta. E Alpha Zero è forse il primo assaggio di questo. Questo unico algoritmo può imparare da solo a fare tre cose diverse, ma non è in grado di farle contemporaneamente. Quindi non è come un cervello umano che può passare da un compito all’altro. 

Chiaramente non è un’intelligenza generale, ma siamo all’apice di quel genere di cose: il tipo di intelligenza artificiale multi-strumento che può fare diverse cose che l’intelligenza artificiale ristretta già padroneggia. Salendo nello spettro, quello che probabilmente più persone intendono quando parlano di AGI (artificial general intelligence) fa riferimento a macchine pensanti, “simili all’uomo”, multitasking come una persona. 

C’è poi chi va dritto all’altra estremità dello spettro e vorrebbe coinvolgere anche una coscienza della macchina per parlare di AGI. Penso che tutte queste posizioni siano presenti, per cui è difficile parlare di AGI in quanto non esiste una definizione chiara.

G. L.: Quando parliamo di intelligenza artificiale generale, c’è questa sorta di presupposto implicito che anche l’intelligenza umana stessa sia assolutamente generale.  Ma è davvero così o ci sono diversi tipi di intelligenza generale? 

W. D. H.: Penso che molti nella comunità dell’AI sarebbero d’accordo sul fatto che ci sono molte intelligenze diverse. Siamo in parte bloccati su questa idea di intelligenza simile a quella umana perché gli umani sono stati per molto tempo il miglior esempio di intelligenza generale che abbiamo avuto, quindi è ovvio che rappresentino un modello, anche se basta guardare al regno animale per vedere molti modi diversi di essere intelligenti. Dal tipo di intelligenza sociale che hanno le formiche a quella dei polpi agli scimpanzé.

Quindi penso che l’idea che le macchine, se acquisiscono un’intelligenza generale, debbano essere come noi sia un’assurdità. La stessa missione di costruire un’AGI umana mi appare inutile perché ci siamo già noi e quindi che senso ha costruire macchine che facciano queste cose? Sarebbe molto, molto meglio costruire intelligenze in grado di fare cose che noi non possiamo fare. 

G. L.: La gente ama parlare della minaccia di un’intelligenza artificiale super-intelligente che sta conquistando il mondo, ma quali sono le cose di cui dovremmo davvero preoccuparci? 

K. H.: Uno dei problemi più grandi negli ultimi anni è stata la discriminazione algoritmica. Quando si addestrano algoritmi, piccoli o grandi, a prendere decisioni basate su dati storici, si finisce per replicare i modelli da evitare, come l’emarginazione delle persone di colore o l’emarginazione delle donne. Ma gli algoritmi replicano questi schemi senza pensare e finiscono per prendere decisioni che discriminano le persone di colore, discriminano le donne e le culture non occidentali.

Chi parla delle minacce della superintelligenza o dell’AGI, comunque la si voglia chiamare, fa riferimento all’allineamento dei valori, vale a dire il modo in cui questa intelligenza artificiale super intelligente comprende e si allinea con i nostri valori. Se non succede, le conseguenze potrebbero essere disastrose. 

G. L.: Allora, come creare un’intelligenza artificiale super intelligente che non sia “malvagia”?

K. H.: Dovremmo parlare da subito di come non siamo riusciti ad allineare i valori con le AI di base e risolvere effettivamente il problema della discriminazione algoritmica. Un’altra grande sfida è la concentrazione del potere che l’intelligenza artificiale crea naturalmente. Oggi è necessaria un’incredibile quantità di potenza di calcolo per creare sistemi di intelligenza artificiale avanzati e superare lo stato dell’arte. Gli unici attori che hanno davvero questa quantità di potenza computazionale sono le grandi aziende tecnologiche e forse le università di ricerca di alto livello. E anche le università di ricerca di alto livello riescono a malapena a competere con le grandi aziende tecnologiche.

Un’altra preoccupazione condivisa è che una volta che l’intelligenza artificiale super-intelligente sarà realtà, andrà effettivamente a beneficio delle persone in modo uniforme? Ancora non lo sappiamo. La maggior parte del valore che viene generato oggi dall’intelligenza artificiale sta tornando alle aziende sotto forma di miliardi di dollari. E non abbiamo davvero capito come convertire questo valore o distribuirlo ad altre persone.

G. L.: Torniamo all’idea di un’intelligenza generale e a come la costruiremmo, se potessimo. Will ha menzionato l’apprendimento profondo in precedenza. E’ la tecnica fondamentale della maggior parte dell’intelligenza artificiale che usiamo oggi, anche se ha solo otto anni circa. Karen, hai parlato con il padre del deep learning Geoffrey Hinton alla nostra conferenza EmTech di recente. Lui pensa che il deep learning, la tecnica che usiamo per tecnologie come i servizi di traduzione o il riconoscimento facciale, sarà anche la base di un’intelligenza generale. 

Geoffrey Hinton [Da EmTech 2020]: Credo che il deep learning sarà in grado di fare tutto, anche se ci saranno alcune nuove scoperte concettuali. In particolare quelle che hanno a che fare con il modo in cui si ottengono grandi vettori di attività neurale per implementare aspetti come il ragionamento, ma abbiamo anche bisogno di un enorme aumento di scala. Il cervello umano ha circa cento trilioni di parametri, cioè sinapsi. Cento trilioni. Quelli che ora vengono chiamati modelli davvero grandi come GPT-3 ne hanno 175 miliardi. È migliaia di volte più piccolo del cervello.

G. L.: Cos’è il deep learning?

K. H.: E’ un insieme di tecniche che si basa sull’idea che il modo per creare l’intelligenza artificiale è dare vita a reti neurali artificiali basate su quelle del nostro cervello. Il cervello umano è la forma di intelligenza più avanzata che conosciamo oggi. Ovviamente Will ha già parlato di alcune sfide a questa teoria, ma supponendo che l’intelligenza umana sia un po’ come l’epitome dell’intelligenza che abbiamo oggi, vogliamo provare a ricreare i cervelli artificiali in una sorta di immagine di un cervello umano. E l’apprendimento profondo è questo. È una tecnica che cerca di utilizzare le reti neurali artificiali come un modo per raggiungere l’intelligenza artificiale.

Quello a cui ti riferivi è che ci sono due diverse posizioni su come avvicinarci alla costruzione dell’intelligenza generale artificiale. La prima è che abbiamo già tutte le tecniche necessarie e dobbiamo solo fare una grande operazione di scala con più dati e reti neurali più grandi. L’altra è che l’apprendimento profondo non è sufficiente. Abbiamo bisogno di qualcos’altro che non abbiamo ancora capito per integrare il deep learning al fine di replicare alcune caratteristiche come il buon senso o il ragionamento che oggi sono stati in qualche modo elusi nel campo dell’AI.

G. L.: Quindi Will, come Karen ha appena accennato, le persone che pensano che possiamo costruire un’intelligenza generale a partire dal deep learning pensano che dobbiamo aggiungere alcune cose. Mi puoi fare degli esempi? 

W. D. H.: Oltre a molti più dati, come ha detto Karen, ci sono una serie di tecniche che le persone usano per migliorare il deep learning. Per esempio, l’apprendimento non supervisionato, che è alla base di molti successi dell’apprendimento profondo, come il riconoscimento delle immagini, semplicemente per usare l’esempio cliché del riconoscimento dei gatti. Questo perché l’intelligenza artificiale è stata addestrata su milioni di immagini che sono state etichettate dagli umani con “gatto”. L’apprendimento non supervisionato avviene quando la macchina guarda i dati che non sono stati etichettati in quel modo e cerca essa stessa di individuare schemi. 

G. L.: Quindi, in altre parole, si darebbero all’AI dati su gatti, cani, torte di noci pecan, che il sistema dividerebbe in gruppi? 

W. D. H.: Sì. In sostanza, deve prima imparare quale sia il tipo di caratteristiche distintive tra le diverse categorie prima di essere sommersa di dati. Non possiamo continuare sulla strada dell’etichettatura manuale. E, cosa ancora più interessante, penso che un sistema di apprendimento non supervisionato abbia il potenziale di individuare categorie che gli umani non hanno ancora definito. Quindi potremmo effettivamente imparare qualcosa dalla macchina.

Un altro aspetto importante è il trasferimento dell’apprendimento, cruciale per l’intelligenza generale perché permette di non dover ricominciare da capo ogni volta. Per esempio, si possono prendere alcuni schemi ripresi da un training formativo e utilizzarli per altre situazioni. Se si chiede di riconoscere un animale mai visto, è più facile sapendo che gli animali possono avere zampe, teste e code.

Ci sono anche forme di apprendimento rapido, in cui il sistema apprende da pochissimi esempi di allenamento. Un sistema che potrebbe essere cruciale perché non sempre abbiamo moltissimi dati da trasmettere a questi sistemi per insegnarglielo. Comunque, il livello è ancora basso rispetto agli umani. 

K. H.: In effetti, se si mostra a un bambino l’immagine di un cavallo e poi l’immagine di un rinoceronte e si dice; “un unicorno è una via di mezzo tra un cavallo e un rinoceronte”, quando vedrà per la prima volta un unicorno in un libro illustrato, probabilmente saprà riconoscerlo. In questo modo si iniziano a imparare più categorie rispetto a quelle mostrate dagli esempi. Su questo presupposto si basa un’altra frontiera del deep learning chiamata low shot learning. Si tratta dello stesso principio dell’apprendimento rapido, per cui se siamo in grado di far sì che questi sistemi imparino da campioni di dati molto piccoli, allo stesso modo degli umani, allora si può davvero potenziare il processo di apprendimento.

G. L.: Per me, questo solleva una domanda ancora più generale: cosa rende le persone nel campo dell’AGI così sicure di poter produrre intelligenza in una macchina che rappresenta le informazioni digitalmente, nelle forme di uno e zero, quando sappiamo ancora così poco su come il cervello umano rappresenti le informazioni? Non è un azzardo ipotizzare che possiamo ricreare l’intelligenza umana in una macchina digitale?

W. D. H.: Condivido. Nonostante l’enorme complessità di alcune delle reti neurali che vediamo oggi in termini di dimensioni e connessioni, siamo lontani ordini di grandezza da qualsiasi cosa che corrisponda alla scala di un cervello, anche una sorta di cervello animale piuttosto elementare. C’è un enorme divario con l’idea che saremo in grado di farlo, specialmente con l’attuale tecnologia di deep learning.

L’idea che solo una rete neurale molto grande possa raggiungere l’intelligenza generale è ancora in parte un atto di fede perché forse l’intelligenza generale richiederà qualche svolta nel modo in cui le strutture dedicate comunicano. Quindi c’è un altro passaggio difficile per coloro che inseguono questo obiettivo. Alcuni pensano che le reti neurali siano un semplice problema di scala. Altre ritengono che dobbiamo fare un passo indietro rispetto alle specifiche di ogni singolo algoritmo di deep learning e guardare al quadro più ampio. In realtà, forse le reti neurali non sono il miglior modello del cervello e possiamo costruirne di più avanzati, che osservano come comunicano le diverse parti del cervello. Il totale è maggiore della somma.

G. L.: Voglio concludere con una riflessione di ordine filosofico. Abbiamo detto che anche i fautori dell’AGI non pensano che la macchina sarà cosciente. Ma avrà pensieri? Comprenderà la propria esistenza nel senso in cui lo facciamo noi? 

W. D. H.: Nell’articolo del 1950 Can Machines Think, Alan Turing ha sollevato questa domanda: come facciamo a sapere se una macchina può pensare? E in quel documento, si rivolge a questa idea di coscienza. Forse alcune persone arriveranno e diranno che le macchine non possono pensare perché non saremo mai in grado di stabilire se sono coscienti. Spingendo la riflessione all’estremo, dovremmo allora dire che non c’è modo definitivo per sostenere che qualcuno sia cosciente.

L’unica via per saperlo sarebbe sperimentare di essere un altro. Ma in questo modo si arriva al punto di interrompere qualsiasi forma di comunicazione. Sono dell’idea che la questione della coscienza durerà per sempre. Un giorno penso che avremo macchine che si comportano come se lo fossero, imitando perfettamente gli umani, al punto che potremmo anche trattarli come se fossero coscienti, ma sapere se in realtà lo sono, credo che non lo sapremo mai. 

G. L.: Karen, cosa ne pensi delle macchine consapevoli?

K. H.: Se siamo fondamentalmente in grado di ricreare ogni piccola cosa, ogni piccolo processo nel nostro corpo o eventualmente nel corpo di un animale, allora perché quegli esseri non dovrebbero avere la stessa coscienza che abbiamo noi?

W. D. H.: Sai che c’è un meraviglioso dibattito in corso proprio ora sugli organoidi cerebrali, che sono piccoli gruppi di cellule staminali che sono fatte per crescere in neuroni e possono persino sviluppare connessioni e attività elettrica. Ci sono vari laboratori in tutto il mondo che studiano queste piccoli grumi di cervello per comprendere meglio le malattie del cervello umano e c’è un dibattito etico davvero interessante in corso, sul valore da dare a questa attività elettrica, sulla possibilità che questi piccoli grumi nelle capsule di Petri siano consapevoli. E questo dimostra che non abbiamo una buona definizione di coscienza, nemmeno per i nostri cervelli, per non parlare di quelli artificiali.

K. H.: Voglio aggiungere che non abbiamo nemmeno una buona definizione di artificiale. Anzi, non abbiamo una buona definizione di nessuna delle tre parole che compongono la definizione intelligenza artificiale generale. Definiamo artificiale cose che semplicemente non sono fatte di materiale organico? Ci sono molte ambiguità e definizioni intorno a tutto quello di cui stiamo parlando, il che rende la questione della coscienza molto complicata.

Immagine di: Ariel Davis

(rp)

Related Posts
Total
0
Share