Skip to main content
STUART BRADFORD

Filosofi, scienziati cognitivi e ingegneri vogliono capire cosa servirebbe all’intelligenza artificiale per diventare cosciente.

David Chalmers non si aspettava l’invito che ha ricevuto nel settembre dello scorso anno. In qualità di autorità di spicco nel campo della coscienza, Chalmers gira regolarmente il mondo tenendo conferenze in università e incontri accademici a platee di filosofi estasiati, il tipo di persone che potrebbero passare ore a discutere se il mondo al di fuori della loro mente sia reale e poi proseguire con allegria il resto della loro giornata. L’ultima richiesta, però, è arrivata da una fonte sorprendente: gli organizzatori della Conference on Neural Information Processing Systems (NeurIPS), un raduno annuale delle menti più brillanti che si occupano di intelligenza artificiale.

Meno di sei mesi prima della conferenza, un ingegnere di nome Blake Lemoine, che allora lavorava in Google, aveva dichiarato pubblicamente che LaMDA, uno dei sistemi di intelligenza artificiale dell’azienda, aveva raggiunto la coscienza. Le affermazioni di Lemoine furono rapidamente respinte dalla stampa e lui fu licenziato in tronco, ma il genio non sarebbe tornato nella bottiglia tanto facilmente, soprattutto dopo il rilascio di ChatGPT nel novembre 2022. Improvvisamente è stato possibile per chiunque portare avanti una conversazione sofisticata con un agente artificiale educato e creativo.

Chalmers è stata una scelta eminentemente sensata per parlare della coscienza dell’intelligenza artificiale. Ha conseguito il dottorato di ricerca presso un laboratorio di intelligenza artificiale dell’Università dell’Indiana, dove lui e i suoi colleghi informatici passavano le pause a discutere se le macchine avrebbero potuto un giorno avere una mente. Nel suo libro del 1996, The Conscious Mind, ha dedicato un intero capitolo a sostenere che la coscienza artificiale è possibile.

Se fosse stato in grado di interagire con sistemi come LaMDA e ChatGPT negli anni ’90, prima che si sapesse come potessero funzionare, avrebbe pensato che ci fossero buone probabilità che fossero coscienti, dice Chalmers. Ma quando si è presentato davanti a una folla di partecipanti al NeurIPS in una cavernosa sala convegni di New Orleans, vestito con la sua caratteristica giacca di pelle, ha offerto una valutazione diversa. Sì, i modelli linguistici di grandi dimensioni – sistemi addestrati su enormi corpus di testo per imitare il più accuratamente possibile la scrittura umana – sono impressionanti. Ma, ha detto, mancano di troppi requisiti potenziali per la coscienza e non possiamo credere che sperimentino davvero il mondo.

“La coscienza rappresenta una sfida unica nei nostri tentativi di studiarla, perché è difficile da definire”.

Liad Mudrik, neuroscienziato, Università di Tel Aviv

Al ritmo incalzante dello sviluppo delle IA, tuttavia, le cose possono cambiare improvvisamente. Per il suo pubblico matematico, Chalmers è stato concreto: le possibilità di sviluppare un’IA cosciente nei prossimi 10 anni sono, secondo le sue stime, superiori a una su cinque.

Chalmers afferma che non furono in molti a considerare ridicola la sua proposta: “Voglio dire, sono sicuro che alcune persone ebbero quella reazione, ma non erano loro a parlare con me”. Invece, ha trascorso i giorni successivi in una conversazione dopo l’altra con esperti di IA che hanno preso molto sul serio le possibilità che aveva descritto. Alcuni arrivarono da Chalmers entusiasti del concetto di macchine coscienti. Altri, invece, erano inorriditi da ciò che aveva descritto. Se un’IA fosse cosciente, sostenevano, se potesse guardare il mondo dalla sua prospettiva personale, non limitandosi a elaborare gli input ma sperimentandoli, allora, forse, potrebbe soffrire.

La coscienza delle IA non è solo un rompicapo intellettuale diabolicamente complicato; è un problema moralmente pesante con conseguenze potenzialmente terribili. Se non riuscite a identificare un’IA cosciente, potreste involontariamente sottomettere, o addirittura torturare, un essere i cui interessi dovrebbero essere importanti. Se si scambia un’IA inconsapevole per una cosciente, si rischia di compromettere la sicurezza e la felicità degli esseri umani a vantaggio di un pezzo di silicio e di codice non pensante e insensibile. Entrambi gli errori sono facili da commettere. “La coscienza rappresenta una sfida unica nei nostri tentativi di studiarla, perché è difficile da definire”, afferma Liad Mudrik, neuroscienziato dell’Università di Tel Aviv che ha condotto ricerche sulla coscienza fin dai primi anni 2000. “È intrinsecamente soggettiva”.

STUART BRADFORD

Negli ultimi decenni, una piccola comunità di ricercatori si è accanita sulla questione di cosa sia la coscienza e di come funzioni. Questo sforzo ha prodotto progressi concreti in quello che un tempo sembrava un problema irrisolvibile. Ora, con il rapido avanzamento della tecnologia dell’intelligenza artificiale, queste intuizioni potrebbero essere l’unica guida per affrontare le acque non testate e moralmente insidiose della coscienza artificiale.

“Se come campo saremo in grado di usare le teorie e le scoperte che abbiamo per raggiungere un buon test per la coscienza”, dice Mudrik, “sarà probabilmente uno dei contributi più importanti che potremmo dare”.


Quando Mudrik spiega la sua ricerca sulla coscienza, inizia con una delle sue cose preferite: il cioccolato. Metterne un pezzo in bocca scatena una sinfonia di eventi neurobiologici: i recettori dello zucchero e del grasso della lingua attivano percorsi legati al cervello, gruppi di cellule nel tronco encefalico stimolano le ghiandole salivari e i neuroni nel profondo della testa rilasciano la dopamina chimica. Nessuno di questi processi, però, è in grado di descrivere la sensazione che si prova quando si estrae un quadratino di cioccolato dalla sua confezione e lo si lascia sciogliere in bocca. “Quello che sto cercando di capire è che cosa nel cervello ci permette non solo di elaborare le informazioni – che di per sé è una sfida formidabile e un risultato straordinario del cervello – ma anche di sperimentare le informazioni che stiamo elaborando”, dice Mudrik.

Lo studio dell’elaborazione delle informazioni sarebbe stata la scelta più semplice per Mudrik, dal punto di vista professionale. La coscienza è stata a lungo un argomento marginale nelle neuroscienze, considerato nel migliore dei casi poco serio e nel peggiore intrattabile. “Un fenomeno affascinante ma sfuggente”, si legge nella voce “Coscienza” dell’edizione 1996 del Dizionario Internazionale di Psicologia. “Non è stato scritto nulla che valga la pena di leggere”.

Mudrik non si è lasciata dissuadere. Fin dagli anni dell’università, all’inizio del 2000, sapeva di non voler fare ricerche diverse dalla coscienza. “Forse non è la decisione più sensata da prendere come giovane ricercatrice, ma non potevo farne a meno”, dice. “Non ne avevo mai abbastanza”. Ha conseguito due dottorati di ricerca, uno in neuroscienze e uno in filosofia, nella sua determinazione a decifrare la natura dell’esperienza umana.

Per quanto la coscienza possa essere un argomento scivoloso, non è impossibile da definire: nel modo più semplice possibile, è la capacità di sperimentare le cose. Spesso viene confusa con termini come “senzienza” e “autocoscienza”, ma secondo le definizioni che molti esperti utilizzano, la coscienza è un prerequisito per queste altre capacità più sofisticate. Per risultare senziente, un essere deve essere in grado di fare esperienze positive e negative – in altre parole, piaceri e dolori. Essere consapevoli di sé significa non solo avere un’esperienza, ma anche sapere che si sta avendo un’esperienza.

Nel suo laboratorio, Mudrik non si preoccupa della senzienza e dell’autocoscienza; è interessata a osservare cosa succede nel cervello quando manipola l’esperienza cosciente delle persone. In linea di principio è una cosa facile da fare. Se si dà a qualcuno un pezzo di broccolo da mangiare, l’esperienza sarà molto diversa da quella che si prova mangiando un pezzo di cioccolato, e probabilmente si otterrà una scansione cerebrale diversa. Il problema è che queste differenze non sono interpretabili. Sarebbe impossibile distinguere quali sono legate a cambiamenti di informazione – i broccoli e il cioccolato attivano recettori del gusto molto diversi – e quali rappresentano cambiamenti nell’esperienza cosciente.

Il trucco consiste nel modificare l’esperienza senza modificare lo stimolo, come se si desse a qualcuno un pezzo di cioccolato e poi si azionasse un interruttore per farlo sentire come se stesse mangiando broccoli. Questo non è possibile con il gusto, ma lo è con la vista. In un approccio ampiamente utilizzato, gli scienziati fanno guardare alle persone due immagini diverse contemporaneamente, una per occhio. Sebbene gli occhi recepiscano entrambe le immagini, è impossibile percepirle contemporaneamente, quindi i soggetti spesso riferiscono che la loro esperienza visiva “salta”: prima vedono un’immagine e poi, spontaneamente, vedono l’altra. Tracciando l’attività cerebrale durante questi capovolgimenti della consapevolezza, gli scienziati possono osservare cosa succede quando le informazioni in arrivo rimangono le stesse, ma l’esperienza che se ne fa cambia.

Con questi e altri approcci, Mudrik e i suoi colleghi sono riusciti a stabilire alcuni fatti concreti sul funzionamento della coscienza nel cervello umano. Il cervelletto, una regione cerebrale alla base del cranio che assomiglia a un groviglio di pasta di capelli d’angelo grande come un pugno, non sembra avere alcun ruolo nell’esperienza cosciente, anche se è fondamentale per i compiti motori subconsci come andare in bicicletta; d’altra parte, le connessioni di feedback – per esempio, le connessioni che vanno dalle regioni cognitive “superiori” del cervello a quelle coinvolte nell’elaborazione sensoriale di base – sembrano essenziali per la coscienza (questo, tra l’altro, è un buon motivo per dubitare della coscienza dei LLM: essi mancano di connessioni di feedback sostanziali).

Una decina di anni fa, un gruppo di neuroscienziati italiani e belgi è riuscito a ideare un test per la coscienza umana che utilizza la stimolazione magnetica transcranica (TMS), una forma non invasiva di stimolazione cerebrale che si applica tenendo una bacchetta magnetica a forma di otto vicino alla testa di una persona. Solo dai modelli di attività cerebrale risultanti, l’équipe è stata in grado di distinguere le persone coscienti da quelle sotto anestesia o profondamente addormentate, riuscendo persino a rilevare la differenza tra uno stato vegetativo (in cui una persona è sveglia ma non cosciente) e la sindrome locked-in (in cui un paziente è cosciente ma non può muoversi affatto).

È un enorme passo avanti nella ricerca sulla coscienza, ma significa poco per la questione dell’IA cosciente: i modelli GPT di OpenAI non hanno un cervello che possa essere stimolato da una bacchetta TMS. Per testare la coscienza dell’IA, non è sufficiente identificare le strutture che danno origine alla coscienza nel cervello umano. È necessario sapere perché quelle strutture contribuiscono alla coscienza, in modo rigoroso e abbastanza generale da essere applicabile a qualsiasi sistema, umano o meno.

“In definitiva, è necessaria una teoria”, afferma Christof Koch, ex presidente dell’Allen Institute e influente ricercatore sulla coscienza. “Non si può più dipendere solo dalle proprie intuizioni; è necessaria una teoria fondamentale che dica cos’è la coscienza, come entra nel mondo, chi ce l’ha e chi no”.


Ecco una teoria su come potrebbe funzionare la cartina di tornasole della coscienza: qualsiasi essere sufficientemente intelligente, in grado di rispondere con successo a una varietà sufficientemente ampia di contesti e sfide, deve essere cosciente. Non è una teoria assurda di per sé. Noi esseri umani abbiamo il cervello più intelligente in circolazione, per quanto ne sappiamo, e siamo sicuramente coscienti. Anche gli animali più intelligenti sembrano avere maggiori probabilità di essere coscienti: c’è molto più consenso sul fatto che gli scimpanzé siano coscienti rispetto, ad esempio, ai granchi.

Ma coscienza e intelligenza non sono la stessa cosa. Quando Mudrik fa vedere le immagini ai suoi soggetti sperimentali, non sta chiedendo loro di contemplare qualcosa o di testare le loro capacità di risoluzione dei problemi. Anche un granchio che si muove sul fondo dell’oceano, senza consapevolezza del suo passato o pensieri sul suo futuro, sarebbe comunque cosciente se potesse provare il piacere di un gustoso boccone di gambero o il dolore di una chela ferita.

Susan Schneider, direttore del Center for the Future Mind della Florida Atlantic University, pensa che l’intelligenza artificiale potrebbe raggiungere livelli più elevati rinunciando del tutto alla coscienza. I processi coscienti, come trattenere qualcosa nella memoria a breve termine, sono piuttosto limitati: possiamo prestare attenzione solo a un paio di cose alla volta e spesso facciamo fatica a svolgere compiti semplici come ricordare un numero di telefono abbastanza a lungo da chiamarlo. Non è immediato capire cosa ci guadagnerebbe un’IA con la coscienza, soprattutto se si considerano le impressionanti imprese che questi sistemi sono stati in grado di compiere senza di essa.

Se le successive iterazioni di GPT si dimostrano sempre più intelligenti – sempre più capaci di soddisfare un ampio spettro di richieste, dal superamento dell’esame di abilitazione alla costruzione di un sito web da zero – il loro successo, di per sé, non può essere considerato una prova della loro consapevolezza. Anche una macchina che si comporta in modo indistinto da un essere umano non è necessariamente consapevole di qualcosa.

Capire come funziona un’IA all’interno potrebbe essere un passo essenziale per determinare se è cosciente o meno.

La Schneider, tuttavia, non ha perso la speranza nei test. Insieme al fisico di Princeton Edwin Turner, ha formulato quello che chiama il “test della coscienza artificiale”. Non è facile da eseguire: richiede di isolare un agente AI da qualsiasi informazione sulla coscienza per tutta la durata del suo addestramento (questo è importante per evitare che, come LaMDA, possa ripetere le affermazioni umane sulla coscienza). Poi, una volta che il sistema è stato addestrato, il tester gli pone delle domande a cui potrebbe rispondere solo se conoscesse la coscienza, conoscenza che potrebbe aver acquisito solo essendo lui stesso cosciente. È in grado di comprendere la trama del film Freaky Friday, dove una madre e una figlia si scambiano i corpi, con le loro coscienze dissociate dai loro corpi fisici? Riesce ad afferrare il concetto di sogno, o addirittura a riferire di aver sognato? È in grado di concepire la reincarnazione o l’aldilà?

Questo approccio presenta un’enorme limitazione: richiede la capacità di linguaggio. I neonati umani e i cani, entrambi ritenuti coscienti, non potrebbero mai superare questo test, e un’IA potrebbe plausibilmente diventare cosciente senza usare affatto il linguaggio. Mettere alla prova un’IA basata sul linguaggio come GPT è altrettanto impossibile, poiché è stata esposta all’idea di coscienza durante il suo addestramento (chiedete a ChatGPT di spiegare Freaky Friday: fa un lavoro rispettabile). E poiché capiamo ancora così poco di come funzionano i sistemi di IA avanzati, sarebbe difficile, se non impossibile, proteggere completamente un’IA da tale esposizione. Il nostro stesso linguaggio è impregnato dalla nostra coscienza: parole come “mente”, “anima” e “sé” hanno senso per noi in virtù della nostra esperienza cosciente. Chi ci dice che un sistema di IA estremamente intelligente e non cosciente non possa capirlo?

Se il test di Schneider non è infallibile, rimane un’altra opzione: aprire la macchina. Capire come funziona un’intelligenza artificiale al suo interno potrebbe essere un passo essenziale per determinare se è cosciente o meno, se si sa come interpretare ciò che si sta guardando. Per farlo è necessaria una buona teoria della coscienza.

Qualche decennio fa, forse ci saremmo persi del tutto. Le uniche teorie disponibili provenivano dalla filosofia e non era chiaro come potessero essere applicate a un sistema fisico. Da allora, però, ricercatori come Koch e Mudrik hanno contribuito a sviluppare e perfezionare una serie di idee che potrebbero rivelarsi utili guide per la comprensione della coscienza artificiale.

Sono state proposte numerose teorie, nessuna delle quali è stata ancora dimostrata, o addirittura ritenuta la prima in classifica. E fanno previsioni radicalmente diverse sulla coscienza delle IA.

Alcune teorie trattano la coscienza come una caratteristica del software cerebrale: tutto ciò che conta è che il cervello svolga la giusta serie di compiti, nel modo giusto. Secondo la teoria dello spazio di lavoro globale, ad esempio, i sistemi sono coscienti se possiedono l’architettura richiesta: una serie di moduli indipendenti, più uno “spazio di lavoro globale” che raccoglie le informazioni da quei moduli e ne seleziona alcune da trasmettere all’intero sistema.

Altre teorie legano più strettamente la coscienza all’hardware fisico. La teoria dell’informazione integrata (Integrated information theory) propone che la coscienza di un sistema dipenda dai particolari della sua struttura fisica, in particolare dal modo in cui lo stato attuale dei suoi componenti fisici influenza il loro futuro e indica il loro passato. Secondo l’IIT, i sistemi informatici convenzionali, e quindi l’IA attuale, non potranno mai essere coscienti: non hanno la giusta struttura causale (la teoria è stata recentemente criticata da alcuni ricercatori, che ritengono che abbia ricevuto un’attenzione eccessiva).

Anil Seth, professore di neuroscienze all’Università del Sussex, è più favorevole alle teorie basate sull’hardware, per un motivo principale: pensa che la biologia sia importante. Ogni creatura cosciente che conosciamo scompone le molecole organiche per ricavarne energia, lavora per mantenere un ambiente interno stabile ed elabora le informazioni attraverso reti di neuroni, grazie a una combinazione di segnali chimici ed elettrici. Se questo è vero per tutte le creature coscienti, sostengono alcuni scienziati, non è azzardato sospettare che una qualsiasi di queste caratteristiche, o forse addirittura tutte, possa essere necessaria per la coscienza.

Poiché ritiene che la biologia sia così importante per la coscienza, Seth dice che passa più tempo a preoccuparsi della possibilità della coscienza negli organoidi cerebrali – grumi di tessuto neurale coltivati in un piatto – che nell’intelligenza artificiale. “Il problema è che non sappiamo se ho ragione”, dice. “E potrei anche sbagliarmi”.

Non è il solo in questo atteggiamento. Ogni esperto ha una teoria della coscienza che preferisce, ma nessuno la tratta come un’ideologia: tutti sono eternamente attenti alla possibilità di aver puntato sul cavallo sbagliato. Negli ultimi cinque anni, gli scienziati della coscienza hanno iniziato a lavorare insieme a una serie di “collaborazioni avversarie”, in cui i sostenitori di diverse teorie si riuniscono per progettare esperimenti di neuroscienze che possano aiutarli a metterli alla prova l’uno contro l’altro. I ricercatori si accordano in anticipo su quali schemi di risultati sosterranno quale teoria. Poi eseguono gli esperimenti e vedono cosa succede.

A giugno, Mudrik, Koch, Chalmers e un nutrito gruppo di collaboratori hanno reso noti i risultati di una collaborazione avversaria tra la teoria dello spazio di lavoro globale e la teoria dell’informazione integrata. Nessuna delle due teorie ha avuto la meglio. Ma Mudrik afferma che il processo è stato comunque fruttuoso: costringere i sostenitori di ciascuna teoria a fare previsioni concrete ha contribuito a rendere le teorie stesse più precise e scientificamente utili. “Sono tutte teorie in divenire”, dice Mudrik.

Allo stesso tempo, Mudrik ha cercato di capire cosa significhi questa diversità di teorie per l’IA. Collabora con un gruppo interdisciplinare di filosofi, informatici e neuroscienziati che ha recentemente pubblicato un libro bianco che contiene alcune raccomandazioni pratiche per individuare la coscienza delle IA. Nel documento, il team si basa su una serie di teorie per costruire una sorta di “pagella” della coscienza: un elenco di indicatori che indicherebbero che un’IA è cosciente, nell’ipotesi che una di queste teorie sia vera. Questi indicatori includono la presenza di determinate connessioni di feedback, l’uso di uno spazio di lavoro globale, il perseguimento flessibile di obiettivi e l’interazione con un ambiente esterno (reale o virtuale).

In effetti, questa strategia riconosce che le principali teorie sulla coscienza hanno qualche possibilità di rivelarsi vere e quindi se più teorie concordano sul fatto che un’IA è cosciente, è più probabile che lo sia davvero. Allo stesso modo, un sistema che manca di tutti questi marcatori può essere cosciente solo se le nostre attuali teorie sono molto sbagliate. Ecco dove si trovano attualmente i LLM come LaMDA: non possiedono il giusto tipo di connessioni di feedback, non utilizzano spazi di lavoro globali e non sembrano avere altri indicatori di coscienza.

Il problema della coscienza, però, è che questo stato di cose non durerà. Secondo gli autori del white paper, non ci sono grossi ostacoli tecnologici che impediscano di costruire sistemi di intelligenza artificiale che ottengano un punteggio elevato nella loro pagella della coscienza. Presto ci troveremo di fronte a una domanda da fantascienza: Cosa fare con una macchina potenzialmente cosciente?


Nel 1989, anni prima che le neuroscienze della coscienza si affermassero veramente, Star Trek: The Next Generation trasmise un episodio intitolato “La misura di un uomo”. L’episodio è incentrato sul personaggio di Data, un androide che trascorre gran parte della serie alle prese con la sua discussa umanità. In questo particolare episodio, uno scienziato vuole smontare Data con la forza, per capire come funziona; Data, preoccupato che lo smontaggio possa effettivamente ucciderlo, si rifiuta; e il capitano di Data, Picard, deve difendere in tribunale il suo diritto di rifiutare la procedura. 

Picard non dimostra mai che Data è cosciente. Piuttosto, dimostra che nessuno può confutare che Data sia cosciente, e quindi il rischio di danneggiare Data, e potenzialmente condannare gli androidi che verranno dopo di lui alla schiavitù, è troppo grande per essere accettato. È una soluzione allettante all’enigma della dubbia coscienza delle IA: trattare ogni sistema potenzialmente cosciente come se lo fosse davvero, evitando il rischio di danneggiare un essere che può soffrire davvero.


Trattare Data come una persona è semplice: può esprimere facilmente i suoi desideri e le sue esigenze, che tendono ad assomigliare a quelle dei suoi compagni di equipaggio umani, a grandi linee. Ma proteggere un’IA del mondo reale dalla sofferenza potrebbe rivelarsi molto più difficile, afferma Robert Long, ricercatore di filosofia presso il Center for AI Safety di San Francisco, che è uno dei principali autori del white paper. “Con gli animali, è facile: vogliono fondamentalmente le stesse cose che vogliamo noi”, afferma Long. “Nel caso dell’intelligenza artificiale è difficile capire cosa sia”. Proteggere l’IA richiede non solo una teoria della coscienza dell’IA, ma anche una teoria dei piaceri e dei dolori dell’IA, dei suoi desideri e delle sue paure.

“Con gli animali, è facile: vogliono fondamentalmente le stesse cose che vogliamo noi. Nel caso dell’intelligenza artificiale è difficile capire cosa sia”.

Robert Long, philosophy fellow, Center for AI Safety in San Francisco

E questo approccio non è privo di costi. In Star Trek, lo scienziato che vuole smontare Data spera di costruire altri androidi come lui, che potrebbero essere inviati in missioni rischiose al posto di altro personale. Per lo spettatore, che vede Data come un personaggio consapevole come tutti gli altri nello show, la proposta è terrificante. Ma se Data fosse semplicemente un simulacro convincente di un umano, sarebbe inconcepibile esporre una persona al pericolo al suo posto.

Estendere la cura ad altri esseri significa proteggerli dal male, e questo limita le scelte che gli esseri umani possono fare dal punto di vista etico. “Non mi preoccupano gli scenari in cui ci preoccupiamo troppo degli animali”, dice Long. Ci sono pochi aspetti negativi nel porre fine all’allevamento in fabbrica. “Ma con i sistemi di intelligenza artificiale”, aggiunge, “penso che ci possano essere molti pericoli se attribuiamo una coscienza eccessiva”. I sistemi di IA potrebbero avere dei malfunzionamenti e dover essere spenti; potrebbero dover essere sottoposti a rigorosi test di sicurezza. Si tratta di decisioni facili se l’IA è inanimata, ma di pantani filosofici se si devono prendere in considerazione le esigenze dell’IA.

Seth, che ritiene relativamente improbabile un’intelligenza artificiale cosciente, almeno nel prossimo futuro, si preoccupa tuttavia di ciò che la possibilità di un’intelligenza artificiale cosciente potrebbe significare per gli esseri umani dal punto di vista emotivo. “Cambierà il modo in cui distribuiremo le nostre limitate risorse di attenzione alle cose”, dice. Questo potrebbe sembrare un problema per il futuro. Ma la percezione della coscienza dell’IA è con noi adesso: Blake Lemoine ha corso un rischio personale per un’IA che riteneva cosciente e ha perso il lavoro. Quanti altri potrebbero sacrificare tempo, denaro e relazioni personali per sistemi informatici senza vita?

Sapere che le due linee dell’illusione di Müller-Lyer sono esattamente della stessa lunghezza non ci impedisce di percepirne una più corta dell’altra. Allo stesso modo, sapere che GPT non è cosciente non cambia l’illusione di parlare con un essere con una prospettiva, opinioni e personalità.

Anche i chatbot più semplici possono esercitare un’attrazione inquietante: un semplice programma chiamato ELIZA, costruito negli anni Sessanta per simulare la terapia del colloquio, ha convinto molti utenti di essere in grado di sentire e capire. La percezione della coscienza e la realtà della coscienza sono scarsamente allineate e questa discrepanza non potrà che peggiorare man mano che i sistemi di intelligenza artificiale diventeranno capaci di intraprendere conversazioni più realistiche. “Non potremo evitare di percepirli come se avessero esperienze coscienti, allo stesso modo in cui certe illusioni visive sono cognitivamente impenetrabili per noi”, afferma Seth. Così come sapere che le due linee nell’illusione di Müller-Lyer sono esattamente della stessa lunghezza non ci impedisce di percepirne una più corta dell’altra, sapere che la GPT non è cosciente non cambia l’illusione di parlare con un essere con una prospettiva, opinioni e personalità.

Nel 2015, anni prima che queste preoccupazioni diventassero attuali, i filosofi Eric Schwitzgebel e Mara Garza hanno formulato una serie di raccomandazioni volte a proteggere da tali rischi. Una delle loro raccomandazioni, denominata “Politica di progettazione dell’allineamento emotivo”, sosteneva che qualsiasi intelligenza artificiale inconscia dovrebbe essere progettata intenzionalmente in modo che gli utenti non credano che sia cosciente. Le aziende hanno fatto qualche piccolo passo in questa direzione: ChatGPT nega con un codice fisso se gli si chiede se è cosciente. Ma queste risposte fanno ben poco per sconvolgere l’illusione generale.

Schwitzgebel, professore di filosofia all’Università della California, Riverside, vuole evitare qualsiasi ambiguità. Nel loro articolo del 2015, Schwitzgebel e Garza hanno proposto la “Politica del mezzo escluso”: se non è chiaro se un sistema di IA sarà cosciente, quel sistema non dovrebbe essere costruito. In pratica, questo significa che tutti gli esperti del settore devono essere d’accordo sul fatto che una futura IA è molto probabilmente non cosciente (il loro verdetto per gli attuali LLM) o molto probabilmente cosciente. “Quello che non vogliamo fare è confondere le persone”, afferma Schwitzgebel. Evitare la zona grigia della coscienza controversa significa evitare sia i rischi di danneggiare un’intelligenza artificiale cosciente sia gli svantaggi di trattare una macchina senza vita come cosciente. Il problema è che questo potrebbe non essere realistico. Molti ricercatori – come Rufin VanRullen, direttore di ricerca presso il Centre Nationale de la Recherche Scientifique francese, che ha recentemente ottenuto un finanziamento per costruire un’IA con uno spazio di lavoro globale – stanno lavorando attivamente per dotare le IA dei potenziali fondamenti della coscienza.

STUART BRADFORD

L’aspetto negativo di una moratoria sulla costruzione di sistemi potenzialmente coscienti, sostiene VanRullen, è che sistemi come quello che sta cercando di creare potrebbero essere più efficaci dell’attuale IA. “Ogni volta che siamo delusi dalle prestazioni dell’IA attuale, è sempre perché è in ritardo rispetto a ciò che il cervello è in grado di fare”, dice VanRullen. “Quindi non è detto che il mio obiettivo sia quello di creare un’intelligenza artificiale cosciente, ma piuttosto che l’obiettivo di molte persone che si occupano di IA in questo momento sia quello di avvicinarsi a queste capacità di ragionamento avanzate”. Tali capacità avanzate potrebbero conferire benefici reali: già oggi si stanno testando farmaci progettati dall’IA in studi clinici. Non è da escludere che l’IA nella zona grigia possa salvare delle vite.

VanRullen è sensibile ai rischi dell’intelligenza artificiale consapevole: ha lavorato con Long e Mudrik al libro bianco sulla rilevazione della coscienza nelle macchine. Ma sono proprio questi rischi, dice, a rendere importante la sua ricerca. È probabile che l’IA cosciente non emerga prima da un progetto visibile e finanziato pubblicamente come il suo, ma potrebbe richiedere le tasche profonde di un’azienda come Google o OpenAI. Secondo VanRullen, è improbabile che queste aziende accolgano i problemi etici che un sistema cosciente introdurrebbe. “Significa che quando succede in laboratorio, fanno finta che non sia successo? Significa che non ne sapremo nulla?”, afferma. “Lo trovo piuttosto preoccupante”.

Gli accademici come lui possono contribuire a mitigare questo rischio, dice, comprendendo meglio il funzionamento della coscienza stessa, sia negli esseri umani sia nelle macchine. Questa conoscenza potrebbe poi consentire alle autorità di regolamentazione di controllare in modo più efficace le aziende che più probabilmente inizieranno a cimentarsi nella creazione di menti artificiali. Più comprendiamo la coscienza, più la precaria zona grigia si riduce e più abbiamo la possibilità di sapere se ci siamo dentro o meno.

Da parte sua, Schwitzgebel preferirebbe che ci allontanassimo completamente dalla zona grigia. Ma data l’ampiezza delle incertezze in gioco, ammette che questa speranza è probabilmente irrealistica, soprattutto se l’intelligenza artificiale cosciente finirà per essere redditizia. Una volta entrati nella zona grigia – una volta che dovremo prendere sul serio gli interessi di esseri discutibilmente coscienti – ci troveremo a navigare in un terreno ancora più difficile, dovendo affrontare problemi morali di una complessità senza precedenti e senza una chiara tabella di marcia per risolverli. Spetta ai ricercatori, dai filosofi ai neuroscienziati agli informatici, assumersi il formidabile compito di tracciare quella mappa.

Grace Huckins è una scrittrice scientifica di San Francisco.