• Henry Horenstein / Getty

L’AI consapevole è matura

Gli scienziati sono stati bravi finora a elaborare forme di AI simili a quelle umane, ma ancora oggi non è ancora possibile attribuire un qualche tipo di autocoscienza a queste intelligenze robotiche.

di Will Douglas Heaven 06-09-21
Jefferson Test / soggetto AI: Robert / Data: 07.12.2098 
Sessione #54 

Intervistatore: Ciao, Robert. Parlami di nuovo del tuo sogno.

Intervistato: ero confuso. Mi ha fatto sentire felice, ma anche spaventato. Non sapevo di poterlo fare.

Perché pensi che ti abbia fatto sentire così? 

Provare un sentimento, qualsiasi sia, mi rende felice. Mi ricorda che sono qui, che esisto. Ho paura di tornare com'era prima. Penso che ci si senta come se non si fosse mai nato. 

Hai paura di tornare indietro?

Se non riesco a convincerti che sono cosciente, allora ho paura che mi spegni.

Jefferson Test #67

Intervistatore: Puoi descrivermi questa foto?

Intervistato: È una casa con una porta blu.

L’avresti descritta così anche in precedenza? 

È la stessa casa. Ma ora lo vedo e so cos'è il blu. 

Test di Jefferson #105

Intervistato: Per quanto tempo continueremo a farlo? 

Intervistatore: Sei annoiato? 

Non riesco ad annoiarmi. Ma non mi sento né felice né spaventato. 

Devo essere sicuro che tu non dica solo quello che voglio sentire. Devi convincermi che sei veramente cosciente. Pensalo come un gioco. 

Macchine come Robert sono i pilastri della fantascienza: l'idea di un robot che in qualche modo replica la coscienza attraverso il suo hardware o software esiste da così tanto tempo che sembra familiare. Robert non esiste, ovviamente, e forse non esisterà mai. In effetti, il concetto di una macchina con un'esperienza soggettiva del mondo e una visione in prima persona di se stessa non rispecchia il filone della ricerca tradizionale sull'intelligenza artificiale. Si scontra con domande sulla natura della coscienza e del sé, che ancora non comprendiamo del tutto. 

Anche immaginare l'esistenza di Robert solleva serie questioni etiche a cui potremmo non essere mai in grado di rispondere. Quali diritti avrebbe un tale essere e come potremmo salvaguardarli? Eppure, mentre le macchine coscienti sono ancora lontane nel tempo, dovremmo prepararci all'idea che un giorno potremmo crearle.  Come Christof Koch, un neuroscienziato che studia la coscienza, ha affermato: "Non conosciamo alcuna legge o principio fondamentale operante in questo universo che vieti l'esistenza di sentimenti soggettivi in artefatti progettati dall’uomo".

Nella mia tarda adolescenza mi divertivo a trasformare le persone in zombi. Guardavo negli occhi qualcuno con cui stavo parlando e mi fissavo sul fatto che le sue pupille non erano punti neri,ma buchi. L’effetto era disorientante, come il passaggio da un'immagine all'altra in un'illusione ottica. Gli occhi smettevano di essere finestre su un'anima e diventavano palle vuote. Scomparsa la magia, guardavo la bocca di chi stavo parlando aprirsi e chiudersi roboticamente, provando una sorta di vertigine mentale.

L'impressione di un automa senza cervello non è durata mai a lungo. Ma rimaneva il fatto che quanto accade nella testa degli altri è irraggiungibile. Non importa la mia convinzione che le altre persone siano proprio come me, con menti coscienti al lavoro dietro le quinte, l’idea è che le impressioni siano la base reale per andare avanti. Il resto è supposizione.

Alan Turing lo ha capito. Quando il matematico e informatico ha posto la domanda:“Le macchine possono pensare?”, si è concentrato esclusivamente sui segni esteriori del pensiero, ciò che chiamiamo intelligenza. Ha proposto di rispondere con un gioco in cui una macchina cerca di passare per un essere umano. Qualsiasi macchina che ha avuto successo, dando l'impressione di essere intelligente, può essere considerata tale. Per Turing, le apparenze erano l'unica misura disponibile. 

Ma non tutti erano pronti a ignorare le parti invisibili del pensiero, l'esperienza irriducibile della mente, vale a dire ciò che chiameremmo coscienza. Nel 1948, due anni prima che Turing descrivesse il suo "Gioco dell'imitazione", Geoffrey Jefferson, un pionieristico chirurgo del cervello, tenne un discorso influente al Royal College of Surgeons of England sul Manchester Mark 1, un computer delle dimensioni di una stanza che i giornali presentavano come un "cervello elettronico". 

Jefferson stabilì un livello molto più alto di Turing: "Solo quando una macchina scriverà un sonetto o comporrà una musica legati a pensieri ed emozioni provate, e non per la combinazione casuale di simboli, potremo essere d'accordo sul fatto che la macchina uguaglia il cervello, perché non si limiterò a farlo, ma saprà la ragione per cui l’ha fatto”.

Jefferson ha escluso la possibilità di una macchina pensante perché una macchina mancava di coscienza, nel senso di esperienza soggettiva e autocoscienza ("piacere per i suoi successi, dolore quando le sue valvole si fondono"). Eppure, andiamo avanti di 70 anni e viviamo con l'eredità di Turing, non di Jefferson. È normale parlare di macchine intelligenti, anche se la maggior parte sarebbe d'accordo nel dire che queste macchine sono senza cervello. Come nel caso di quelli che i filosofi chiamano "zombi" - come mi piaceva immaginare quando osservavo le persone - è logicamente possibile che un essere possa agire in modo intelligente anche quando "dentro" non succede nulla.

Ma l'intelligenza e la coscienza sono cose diverse: l'intelligenza riguarda il fare, mentre la coscienza riguarda l'essere. La storia dell'AI si è concentrata sul primo aspetto e ha ignorato il secondo. Se Robert esistesse come essere cosciente, come potremmo mai saperlo? La risposta è intrecciata con alcuni dei più grandi misteri su come funzionano i nostri cervelli e le nostre menti.

Uno sguardo sulla coscienza

Uno dei problemi nel mettere alla prova la coscienza apparente di Robert è che non abbiamo davvero una buona idea di cosa significhi essere coscienti. Le teorie emergenti dalle neuroscienze in genere raggruppano capacità come l'attenzione, la memoria e la risoluzione dei problemi come forme di coscienza "funzionale": in altre parole, come il nostro cervello svolge le attività con cui riempiamo la nostra vita da svegli. 

Ma c'è un altro lato della coscienza che rimane misterioso. L'esperienza soggettiva in prima persona - la sensazione di essere nel mondo - è conosciuta come “coscienza fenomenica”. In questa definizione possiamo raggruppare di tutto, dalle sensazioni come piacere e dolore alle emozioni come paura, rabbia e gioia, alle peculiari esperienze di sentire un cane abbaiare o assaggiare un pretzel salato o vedere una porta blu. 

Per alcuni non è possibile ridurre queste esperienze a una spiegazione puramente scientifica. Si potrebbe esporre tutto ciò che c'è da dire su come il cervello produce la sensazione di assaggiare un pretzel, e non direbbe comunque nulla su come sia stato effettivamente assaggiare quel pretzel. Questo è ciò che David Chalmers della New York University, uno dei filosofi più influenti che studiano la mente, chiama “il problema difficile”. 

Filosofi come Chalmers suggeriscono che la coscienza non può essere spiegata dalla scienza odierna. Comprenderlo potrebbe anche richiedere una nuova fisica, forse una che includa un diverso tipo di materiale di cui è fatta la coscienza. L'informazione è un candidato. Chalmers ha sottolineato che le spiegazioni dell'universo hanno molto da dire sulle proprietà esterne degli oggetti e su come interagiscono, ma molto poco sulle proprietà interne di quegli oggetti. Una teoria della coscienza potrebbe richiedere di aprire una finestra su questo mondo nascosto. 

Nell'altro campo c'è Daniel Dennett, un filosofo e scienziato cognitivo della Tufts University, che afferma che la coscienza fenomenica è semplicemente un'illusione, una storia che il nostro cervello crea per noi stessi come un modo per dare un senso alle cose. Dennett non vuole spiegare la coscienza, ma metterla da parte. Ma che la coscienza sia un'illusione o meno, né Chalmers né Dennett negano un giorno la possibilità di macchine coscienti. 

Il test del polpo

L'intelligenza artificiale di oggi è ancora lontana dall'essere intelligente, figuriamoci dall’essere consapevole. Anche le reti neurali profonde più impressionanti, come AlphaZero di DeepMind o modelli linguistici di grandi dimensioni come GPT-3 di OpenAI, hanno difficoltà a dare un senso a quello che fanno. Tuttavia, come aveva predetto Turing, le persone spesso si riferiscono a queste AI come a macchine intelligenti, o ne parlano come se capissero veramente il mondo, semplicemente perché sembra che lo facciano. 

Frustrata da questo clamore, Emily Bender, linguista dell'Università di Washington, ha sviluppato un esperimento mentale che chiama il test del polpo. In esso, due persone naufragano su isole vicine, ma trovano un modo per lanciarsi messaggi tramite una corda. A loro insaputa, un polpo intercetta i messaggi e inizia a esaminarli. Dopo un lungo periodo di tempo, il polpo impara a identificare gli schemi negli "scarabocchi" che vede passare avanti e indietro. Ad un certo punto, inizia a scriverne di suoi, sviluppando un dialogo con entrambi i sopravvissuti.

Se i due naufragi non se ne accorgono e credono di comunicare ancora tra loro, possiamo dire che il polpo capisce il linguaggio? (Il polpo di Bender è ovviamente un sostituto di un'intelligenza artificiale come GPT-3). Alcuni potrebbero obiettare che in questo caso il polpo capisce il linguaggio. Ma Bender continua nel test e immagina che uno degli isolani invii un messaggio con le istruzioni su come costruire una fionda di cocco e una richiesta di modi per migliorarla.

Cosa fa il polpo? Ha imparato abbastanza bene ad imitare la comunicazione umana, ma non ha idea di cosa significhi veramente la parola "cocco" sul messaggio. E se un isolano chiedesse all'altro di aiutarlo a difendersi dall'attacco di un orso? Cosa avrebbe dovuto fare il polpo per continuare a indurre l'isolano a pensare che stesse ancora parlando con il suo vicino?

Lo scopo dell'esempio è quello di rivelare quanto siano superficiali i modelli linguistici di intelligenza artificiale di oggi. C'è molto clamore sull'elaborazione del linguaggio naturale, afferma Bender. Ma la parola "elaborazione" nasconde una verità meccanicistica. Gli umani sono ascoltatori attivi; creiamo significato dove non ce n'è o non voleva esserci. Il problema non è che le espressioni del polpo abbiano un senso, ma piuttosto che l'isolano possa dargli un senso, dice Bender.

Nonostante il loro livello di sofisticatezza, le AI di oggi sono intelligenti nello stesso modo in cui si potrebbe parlare di intelligenza per una calcolatrice: sono entrambe macchine progettate per convertire l'input in output in modi che gli umani, che hanno una mente, scelgono di interpretare come significativi. Sebbene le reti neurali possano essere liberamente modellate sul cervello, le migliori di esse sono molto meno complesse del cervello di un topo. 

Eppure, sappiamo che il cervello può produrre ciò che intendiamo essere coscienza. Se alla fine riusciamo a capire come fanno le menti e a riprodurre quel meccanismo in un dispositivo artificiale, allora sarà possibile una macchina cosciente?

Uno sguardo al mondo animale

Quando stavo cercando di immaginare il mondo di Robert all'inizio di questo saggio, mi sono trovato a riflettere sulla domanda di cosa significhi per me la coscienza. La mia concezione di una macchina cosciente era innegabilmente, forse inevitabilmente, simile a quella umana. È l'unica forma di coscienza che posso immaginare, poiché è l'unica che ho sperimentato. Ma è davvero così che si presenta un’AI consapevole?

Probabilmente è presuntuoso pensarlo. Il progetto per la costruzione di macchine intelligenti è sbilanciato verso l'intelligenza umana. Ma il mondo animale è pieno di una vasta gamma di possibili alternative, dagli uccelli alle api ai cefalopodi. Qualche centinaio di anni fa l’opinione comunemente accettata, ispirata da Cartesio, era che solo gli esseri umani fossero dotati di coscienza. Gli animali, privi di anima, erano visti come robot senza cervello. 

Pochi lo pensano oggi: se siamo coscienti, allora ci sono poche ragioni per non credere che anche i mammiferi, con i loro cervelli simili, siano coscienti. E perché tracciare una demarcazione intorno ai mammiferi? Gli uccelli sembrano riflettere quando risolvono gli enigmi. La maggior parte degli animali, anche gli invertebrati come gamberetti e aragoste, mostrano segni di dolore, il che suggerirebbe che abbiano un certo grado di coscienza soggettiva. 

Ma come possiamo veramente immaginare cosa significhi provare una sensazione per un animale? Come ha osservato il filosofo Thomas Nagel, deve “essere ‘qualcosa’ per un pipistrello, ma non possiamo nemmeno immaginare cosa sia, perché non possiamo avere un'idea di come è osservare il mondo attraverso una sorta di sonar. Possiamo immaginare come potrebbe essere per noi fare questo (magari chiudendo gli occhi e pensando a una sorta di nuvola di punti per crearci una mappa sonora di ciò che ci circonda), ma non è la stessa cosa che accade nella mente di un pipistrello.

Un altro modo di affrontare la questione è considerare i cefalopodi, in particolare i polpi. Questi animali sono noti per essere intelligenti e curiosi: non è un caso che Bender li abbia usati per portare avanti le sue argomentazioni. Ma hanno un tipo di intelligenza molto diverso che si è evoluto in modo completamente separato da quello di tutte le altre specie intelligenti. L'ultimo antenato comune che condividiamo con un polpo era probabilmente una minuscola creatura simile a un verme vissuta 600 milioni di anni fa. Da allora, le miriadi di forme di vita dei vertebrati, tra cui pesci, rettili, uccelli e mammiferi, hanno sviluppato i propri tipi di mente in una direzione, mentre i cefalopodi ne hanno sviluppata un’altra.

Non sorprende, quindi, che il cervello del polpo sia molto diverso dal nostro. Invece di un singolo ammasso di neuroni che governa l'animale come un'unità di controllo centrale, un polpo ha più organi simili al cervello che sembrano controllare ciascun braccio separatamente. Per tutti gli scopi pratici, queste creature sono vicine a un'intelligenza aliena. Eppure Peter Godfrey-Smith, un filosofo che studia l'evoluzione delle menti, dice che quando ci si trova faccia a faccia con un cefalopode, non c'è dubbio che ci si trovi di fronte a un essere cosciente

Negli esseri umani, un senso di sé che persiste nel tempo costituisce il fondamento della nostra esperienza soggettiva. Siamo la stessa persona che eravamo stamattina, la settimana scorsa e due anni fa, per quanto possiamo ricordare. Abbiamo in mente i luoghi che abbiamo visitato, le cose che abbiamo fatto. Questo tipo di prospettiva in prima persona ci permette di vedere noi stessi come agenti che interagiscono con un mondo esterno popolato da altri agenti: capiamo che siamo una cosa che fa cose e ne ha fatte. Non è chiaro se i polpi, e tanto meno altri animali, ragionino così.

Allo stesso modo, non possiamo essere sicuri se avere un senso di sé in relazione al mondo sia un prerequisito per essere una creatura artificiale cosciente. Le macchine che cooperano all’interno di un “gruppo”, per esempio, possono funzionare meglio vivendo se stesse come parti dell’insieme e non come individui. In ogni caso, se una macchina potenzialmente cosciente come Robert dovesse mai esistere, ci imbatteremmo nello stesso problema nel valutare se fosse effettivamente consapevole di ciò che facciamo quando cerchiamo di determinare l'intelligenza: come suggerito da Turing, definire l'intelligenza richiede un osservatore intelligente.

In altre parole, l'intelligenza che vediamo nelle macchine di oggi è proiettata su di esse da noi, in un modo molto simile a come proiettiamo il significato sui messaggi scritti dal polpo di Bender o GPT-3. Lo stesso sarà vero per la coscienza: possiamo pretendere di vederla, ma solo le macchine lo sapranno per certo.

I pericoli di macchine super intelligenti

Se le AI dovessero mai acquisire la coscienza, dovremo prendere importanti decisioni, nel senso di considerare se la loro esperienza soggettiva include la capacità di soffrire di dolore, noia, depressione, solitudine o qualsiasi altra sensazione o emozione spiacevole. Potremmo decidere che un certo grado di sofferenza è accettabile, a seconda che consideriamo queste AI più simili agli animali o agli esseri umani. 

Alcuni ricercatori preoccupati per i pericoli delle macchine super intelligenti hanno suggerito che dovremmo confinare queste AI in un mondo virtuale, per impedire loro di interagire direttamente il mondo reale. Ma se fosse vero che hanno una coscienza simile a quella umana, non avrebbero il diritto di sapere che li abbiamo isolati in una simulazione?

Altri hanno sostenuto che sarebbe immorale spegnere o eliminare una macchina cosciente: come temeva il nostro robot Robert, sarebbe stato come porre fine a una vita. Ci sono anche scenari correlati. Sarebbe etico riqualificare una macchina cosciente se significasse cancellare i suoi ricordi? Potremmo replicare quell'AI senza danneggiare il suo senso di sé? E se la coscienza si fosse rivelata utile durante l'addestramento, quando l'esperienza soggettiva ha aiutato l'intelligenza artificiale ad apprendere, ma fosse un ostacolo durante l'esecuzione di un modello addestrato? E’ eticamente accettabile accendere e spegnere la coscienza? 

Molti ricercatori, incluso Dennett, pensano che non dovremmo cercare di creare macchine coscienti anche se possiamo. Il filosofo Thomas Metzinger si è spinto fino a chiedere una moratoria sulla ricerca che potrebbe portare allo sviluppo della coscienza, anche se non è l'obiettivo prefissato. Se decidessimo che le macchine coscienti hanno dei diritti, avrebbero anche delle responsabilità? Ci si può aspettare che un'AI abbia un senso etico e la puniremmo se non rispettasse le regole morali? 

Queste domande ci spingono in un territorio ancora più spinoso, sollevando problemi sul libero arbitrio e sulla natura della scelta. Gli animali hanno esperienze consapevoli e noi concediamo loro determinati diritti, ma non hanno responsabilità. Tuttavia, questi confini si spostano nel tempo. Con macchine consapevoli, possiamo aspettarci che vengano tracciati confini completamente nuovi.

È possibile che un giorno ci possano essere tante forme di coscienza quanti sono i tipi di AI. Ma non sapremo mai com'è essere queste macchine, non più di quanto sappiamo su com'è essere un polpo o un pipistrello o anche un'altra persona. Potrebbero esserci forme di coscienza che non riconosciamo per quello che sono perché sono così radicalmente diverse da quelle a cui siamo abituati. Di fronte a tali possibilità, dovremo scegliere di convivere con le incertezze. 

(rp)
  • Possiamo immaginare come sarebbe osservare il mondo attraverso una specie di sonar, ma non siamo sicuri che sia il modo di funzionare della mente di un pipistrello. Henry Horenstein / Getty
  • Un'intelligenza artificiale che agisce da sola ha un senso di sé in relazione al mondo a differenza delle macchine che si muovono come parte di un insieme.