Skip to main content
STEPHANIE ARNETT/MITTR

Sappiamo molto poco di come funzionano i sistemi di IA, quindi come potremo sapere se l’IA diventerà cosciente?

Molti appassionati di IA conoscono la storia del Turco meccanico. Si trattava di una macchina per giocare a scacchi costruita nel 1770, talmente brava da far credere ai suoi avversari che fosse soprannaturalmente potente. In realtà, la macchina aveva lo spazio per un essere umano che si nascondeva al suo interno e la controllava. L’inganno andò avanti per 84 anni. Sono tre generazioni!

La storia è ricca di esempi di persone che hanno cercato di dare vita a oggetti inanimati e di persone che hanno venduto hack e trucchi come “magia”. Ma questo desiderio molto umano di credere nella coscienza delle macchine non ha mai trovato riscontro nella realtà.

Creare una coscienza nei sistemi di intelligenza artificiale è il sogno di molti tecnologi. I grandi modelli linguistici sono l’ultimo esempio della nostra ricerca di macchine intelligenti, e alcuni sostengono (polemicamente) di aver visto barlumi di coscienza nelle conversazioni con loro. Il punto è che la coscienza delle macchine è un argomento molto dibattuto. Molti esperti dicono che è destinata a rimanere per sempre fantascienza, ma altri sostengono che sia proprio dietro l’angolo.

Nell’ultima edizione di MIT Technology Review, la neuroscienziata Grace Huckins esplora ciò che la ricerca sulla coscienza negli esseri umani può insegnarci sull’IA e i problemi morali che la coscienza dell’IA solleverebbe. Per saperne di più leggi qui.

Non comprendiamo appieno la coscienza umana, ma i neuroscienziati hanno alcuni indizi su come si manifesta nel cervello, scrive Grace. Ovviamente, i sistemi di intelligenza artificiale non hanno un cervello, quindi è impossibile usare i metodi tradizionali di misurazione dell’attività cerebrale per individuare segni di vita. Ma i neuroscienziati hanno diverse teorie su come potrebbe essere la coscienza nei sistemi di IA. Alcuni la considerano una caratteristica del “software” del cervello, mentre altri la legano più strettamente all’hardware fisico.

Ci sono stati persino tentativi di creare test per la coscienza delle IA. Susan Schneider, direttrice del Center for the Future Mind della Florida Atlantic University, e il fisico di Princeton Edwin Turner ne hanno sviluppato uno, che richiede che un agente di intelligenza artificiale sia isolato da qualsiasi informazione sulla coscienza che potrebbe aver raccolto durante l’addestramento prima di essere testato. Questo passaggio è importante per evitare che l’agente possa ripetere le affermazioni umane sulla coscienza raccolte durante l’addestramento, come farebbe un modello linguistico di grandi dimensioni. 

Il tester pone quindi all’IA delle domande a cui dovrebbe essere in grado di rispondere solo se è essa stessa cosciente. È in grado di comprendere la trama del film Freaky Friday, in cui una madre e una figlia si scambiano i corpi, con le loro coscienze dissociate da quelle fisiche? È in grado di afferrare il concetto di sogno, o addirittura di riferire di aver sognato? Può concepire la reincarnazione o l’aldilà?

Naturalmente, questo test non è infallibile. Richiede che il soggetto sia in grado di usare il linguaggio, quindi i bambini e gli animali – esseri coscienti a tutti gli effetti – non supererebbero il test. Inoltre, i modelli di intelligenza artificiale basati sul linguaggio saranno stati esposti al concetto di coscienza nella grande quantità di dati Internet su cui sono stati addestrati.

Come possiamo sapere se un sistema di intelligenza artificiale è cosciente? Un gruppo di neuroscienziati, filosofi e ricercatori di IA, tra cui il vincitore del Premio Turing Yoshua Bengio, ha pubblicato un libro bianco che propone modi pratici per rilevare la coscienza dell’IA sulla base di una serie di teorie provenienti da diversi campi. Propongono una sorta di pagella per diversi indicatori, come il perseguimento flessibile di obiettivi e l’interazione con l’ambiente esterno, che indicherebbero la coscienza dell’IA – se le teorie sono vere. Nessuno dei sistemi odierni soddisfa queste condizioni, e non è chiaro se lo faranno mai.

Ecco cosa sappiamo. I grandi modelli linguistici sono estremamente bravi a prevedere quale dovrebbe essere la parola successiva in una frase. Sono anche molto bravi a creare connessioni tra le cose, a volte in modi che ci sorprendono e rendono facile credere nell’illusione che questi programmi informatici possano avere scintille di qualcos’altro. Ma sappiamo molto poco del funzionamento interno dei modelli linguistici dell’intelligenza artificiale. Finché non sapremo esattamente come e perché questi sistemi giungono alle loro conclusioni, è difficile affermare che i risultati dei modelli non siano solo matematica fantasiosa.