Rischio esistenziale, lo slogan dell’intelligenza artificiale

“Le storie di fantasmi sono contagiose”.

Chi ha paura dei grandi bot cattivi? Molte persone, a quanto pare. È impressionante il numero di nomi di alto profilo che hanno rilasciato dichiarazioni pubbliche o firmato lettere aperte per mettere in guardia dai pericoli catastrofici dell’intelligenza artificiale

Centinaia di scienziati, leader e politici si sono espressi, dai pionieri dell’apprendimento profondo Geoffrey Hinton e Yoshua Bengio agli amministratori delegati delle più importanti aziende di IA, come Sam Altman e Demis Hassabis, fino al deputato della California Ted Lieu e all’ex presidente dell’Estonia Kersti Kaljulaid. 

L’affermazione più severa, firmata da tutte queste figure e da molte altre, è una dichiarazione di 22 parole rilasciata due settimane fa dal Center for AI Safety (CAIS), un’organizzazione di ricerca con sede a San Francisco. Essa proclama: “Mitigare il rischio di estinzione causato dall’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”.

“La formulazione è intenzionale. Se avessimo voluto fare una dichiarazione tipo test di Rorschach, avremmo detto ‘rischio esistenziale’, perché può significare molte cose per molte persone diverse”, dice il direttore del CAIS Dan Hendrycks. “Ma volevano essere chiari: non si trattava di far crollare l’economia. Per questo abbiamo scelto ‘rischio di estinzione’, anche se molti di noi sono preoccupati anche da altri rischi”, dice Hendrycks. 

Ci siamo già passati: la rovina dell’IA segue l’hype dell’IA. Ma questa volta è diverso. La finestra di Overton si è spostata. Quelli che una volta erano punti di vista estremi sono ora punti di discussione mainstream, che attirano non solo i titoli dei giornali ma anche l’attenzione dei leader mondiali. “Il coro di voci che sollevano preoccupazioni sull’IA è diventato troppo forte per essere ignorato”, afferma Jenna Burrell, direttore della ricerca di Data and Society, un’organizzazione che studia l’impatto sociale della tecnologia. 

Cosa sta succedendo? L’intelligenza artificiale è davvero diventata (più) pericolosa? E perché le persone che hanno introdotto questa tecnologia sono ora quelle che lanciano l’allarme?    

È vero che queste opinioni dividono il campo. La scorsa settimana Yann LeCun, chief scientist di Meta e vincitore insieme a Hinton e Bengio del Premio Turing 2018, ha definito il doomerismo “incredibilmente ridicolo”. Aidan Gomez, CEO dell’azienda di IA Cohere, ha affermato che si tratta di “un uso assurdo del nostro tempo”.

Anche altri si fanno beffe. “Non ci sono più prove oggi di quante ce ne fossero nel 1950 che l’intelligenza artificiale comporti questi rischi esistenziali”, afferma Meredith Whittaker, presidente di Signal, cofondatrice ed ex direttrice dell’AI Now Institute, un laboratorio di ricerca che studia le implicazioni politiche dell’intelligenza artificiale. “Le storie di fantasmi sono contagiose: è davvero eccitante e stimolante avere paura”. 

“È anche un modo per scremare tutto ciò che sta accadendo nel presente”, dice Burrell. “Suggerisce che non abbiamo ancora visto un danno reale o serio”. 

Una vecchia paura 

Le preoccupazioni per le macchine in fuga e in grado di auto-migliorarsi esistono fin dai tempi di Alan Turing. Futuristi come Vernor Vinge e Ray Kurzweil hanno reso popolari queste idee parlando della cosiddetta Singolarità, una data ipotetica in cui l’intelligenza artificiale supera quella umana e le macchine prendono il sopravvento.  

Ma al centro di queste preoccupazioni c’è la questione del controllo: come fanno gli esseri umani a rimanere in testa se (o quando) le macchine diventano più intelligenti? In un documento intitolato “How Does Artificial Intelligence Pose an Existential Risk?” pubblicato nel 2017, Karina Vold, filosofa dell’intelligenza artificiale presso l’Università di Toronto (che ha firmato la dichiarazione del CAIS), espone l’argomentazione alla base delle paure di chi teme gli sviluppi dell’IA.    

Ci sono tre premesse fondamentali. Uno: è possibile che gli esseri umani costruiscano una macchina superintelligente in grado di superare in astuzia tutte le altre intelligenze. Due: è possibile che non saremo in grado di controllare una superintelligenza che può superarci. E tre: è possibile che una superintelligenza faccia cose che non vogliamo. 

Mettendo insieme tutti questi elementi, è possibile costruire una macchina che farà cose che non vogliamo, fino a spazzarci via, e non saremo in grado di fermarla.    

Questo scenario può avere diverse sfumature. Quando a maggio Hinton ha espresso le sue preoccupazioni sull’intelligenza artificiale, ha fatto l’esempio dei robot che deviano la rete elettrica per avere più energia. Ma la superintelligenza (o AGI) non è necessariamente richiesta per fare questo. Anche le macchine stupide, se lasciate troppo libere, potrebbero essere disastrose. Molti scenari prevedono l’impiego di macchine sconsiderate o malintenzionate, piuttosto che di bot egoisti.

In un documento pubblicato online la scorsa settimana, Stuart Russell e Andrew Critch, ricercatori di IA dell’Università della California, Berkeley (che hanno anche firmato la dichiarazione del CAIS), presentano una tassonomia dei rischi esistenziali. Questi spaziano da un chatbot che dà consigli virali e dice a milioni di persone di abbandonare l’università, a industrie autonome che perseguono i propri fini economici dannosi, fino agli Stati nazionali che costruiscono superarmi dotate di intelligenza artificiale. 

In molti casi immaginari, un modello teorico raggiunge l’obiettivo prefissato dall’uomo, ma lo fa in un modo che va contro di noi. Per Hendrycks, che ha studiato come i modelli di apprendimento profondo possano talvolta comportarsi in modi inaspettati e indesiderati quando ricevono input non presenti nei loro dati di addestramento, un sistema di IA potrebbe essere disastroso perché non funzionante piuttosto che onnipotente. “Se gli si dà un obiettivo e lui trova soluzioni non comuni, ci porterà a fare un percorso strano”, dice. 

Il problema di questi possibili futuri è che si basano su una serie di “se”, che li fa sembrare fantascienza. La stessa Vold lo riconosce. “Poiché gli eventi che costituiscono un rischio esistenziale sono senza precedenti, le argomentazioni secondo cui essi rappresentano una tale minaccia devono essere di natura teorica”, scrive. “La loro rarità rende anche le speculazioni su come o quando tali eventi potrebbero verificarsi soggettive e non verificabili empiricamente”.

Allora perché un numero sempre maggiore di persone prende in considerazione queste idee come mai prima d’ora? “Persone diverse parlano di rischio per motivi diversi e possono intendere cose diverse”, afferma François Chollet, ricercatore di intelligenza artificiale presso Google. Ma è anche una narrazione a cui è difficile resistere: “Il rischio esistenziale è sempre stato una bella storia”. 

“C’è una sorta di elemento mitologico, quasi religioso, che non può essere ignorato”, dice Whittaker. “Penso che dobbiamo riconoscere che ciò che viene descritto, dato che non ha alcuna evidenza a supporto, è molto più vicino a un articolo di fede, una sorta di fervore religioso, che a un discorso scientifico”. 

Il contagio del destino 

Quando i ricercatori di deep-learning hanno iniziato ad accumulare una serie di successi – si pensi ai punteggi da record di Hinton e colleghi nel riconoscimento delle immagini nella competizione ImageNet nel 2012 e alle prime vittorie di DeepMind contro i campioni umani con AlphaGo nel 2015 – l’hype si è presto trasformato anche in una sorta di allarme. Scienziati famosi, come Stephen Hawking e il collega cosmologo Martin Rees, e personalità del mondo tech famose come Elon Musk, hanno lanciato l’allarme sul rischio esistenziale. Ma questi personaggi non erano esperti di IA.    

Otto anni fa, il pioniere dell’apprendimento profondo Andrew Ng, che all’epoca era chief scientist di Baidu, salì su un palco a San Jose e derise l’intera idea.  

“In un futuro lontano potrebbe esserci una corsa ai robot assassini”, ha detto Ng al pubblico della GPU Technology Conference di Nvidia nel 2015. “Ma oggi non mi occupo di non rendere malvagia l’IA per lo stesso motivo per cui non mi preoccupo del problema della sovrappopolazione sul pianeta Marte” (le parole di Ng sono state riportate all’epoca dal sito di notizie tecnologiche The Register). 

Ng, che nel 2011 ha co-fondato il laboratorio di IA di Google e oggi è CEO di Landing AI, ha ripetuto questa frase nelle interviste successive. Ma in questi giorni è meno ottimista. “Sono aperto a nuove prospettive e sto parlando con alcune persone per saperne di più”, mi dice. “Il rapido ritmo di sviluppo ha portato gli scienziati a riconsiderare i rischi”. 

Come molti, Ng è preoccupato per i rapidi progressi dell’IA generativa e per il suo potenziale di abuso. Egli osserva che un’immagine generata dall’IA, divenuta virale, di un’esplosione al Pentagono ha spaventato la gente al punto da far crollare il mercato azionario

“Un’IA così potente sembra probabile che porterà anche a problemi enormi”, afferma Ng. Ma non parla di robot assassini: “Al momento, faccio ancora fatica a capire come l’IA possa condurre alla nostra estinzione”. 

Un’altra novità è la consapevolezza diffusa di ciò che l’IA può fare. Alla fine dello scorso anno, ChatGPT ha portato questa tecnologia al pubblico. “L’IA è diventata improvvisamente un argomento popolare”, afferma Chollet. “Le persone prendono sul serio l’IA perché vedono un improvviso salto di capacità come foriero di altri salti futuri”.

Anche l’esperienza di conversare con un chatbot può essere snervante. La conversazione è qualcosa che di solito si intende come un’azione che le persone svolgono con altre persone. “Ha aggiunto una sorta di plausibilità all’idea che l’IA sia simile a un essere umano o a un interlocutore senziente”, dice Whittaker. “Penso che abbia dato un certo peso all’idea che se l’IA può simulare la comunicazione umana, può anche fare XYZ”. 

“Questo è lo spiraglio in cui vedo insinuarsi l’argomentazione sul rischio esistenziale; deduco senza avere le prove”, dice l’autrice.

Guardare al futuro 

C’è anche motivo di essere cinici. Con le autorità di regolamentazione al passo con l’industria tecnologica, la questione sul tavolo è quali tipi di attività dovrebbero o non dovrebbero essere limitate. Evidenziare i rischi a lungo termine piuttosto che i danni a breve termine (come le assunzioni discriminatorie o la disinformazione) rifocalizza l’attenzione delle autorità di controllo su ipotetici problemi a valle. 

“Sospetto che la minaccia di vere e proprie limitazioni normative abbia spinto le persone a prendere posizione”, afferma Burrell. Parlare di rischi esistenziali può convalidare le preoccupazioni delle autorità di regolamentazione senza compromettere le opportunità commerciali. “L’IA superintelligente che si rivolta contro l’umanità sembra terrificante, ma è anche chiaro che non è ancora successo”, afferma Burrell.

Gonfiare le paure per il rischio esistenziale fa bene agli affari anche in altri modi. Chollet sottolinea che le aziende leader nel settore dell’intelligenza artificiale hanno bisogno di farci credere che l’intelligenza artificiale sta arrivando e che sono loro a costruirla. “Se vuoi che le persone pensino che ciò a cui stai lavorando sia potente, è una buona idea farglielo temere”, dice. 

Whittaker è dello stesso parere. “È una cosa significativa presentarsi come il creatore di un’entità che potrebbe essere più potente degli esseri umani”, afferma l’autrice. 

Tutto questo non avrebbe molta importanza se si trattasse semplicemente di marketing o di pubblicità. Ma decidere quali sono i rischi e quali no ha delle conseguenze. In un mondo in cui i budget e i tempi di attenzione sono limitati, i danni meno estremi della guerra nucleare possono essere trascurati perché abbiamo deciso che non sono la priorità. 

“È una domanda importante, soprattutto con la crescente attenzione alla sicurezza come cornice ristretta per l’intervento politico”, afferma Sarah Myers West, direttore generale dell’AI Now Institute. 

Quando a maggio il Primo Ministro Rishi Sunak ha incontrato i responsabili delle aziende di IA, tra cui Sam Altman e Demis Hassabis, il governo britannico ha rilasciato una dichiarazione in cui affermava che: “Il premier e gli amministratori delegati hanno discusso dei rischi della tecnologia, che vanno dalla disinformazione alla sicurezza nazionale, fino alle minacce esistenziali”. 

La settimana precedente, Altman aveva dichiarato al Senato degli Stati Uniti che il suo peggior timore era che l’industria dell’IA avrebbe causato danni significativi al mondo. La testimonianza di Altman ha contribuito a far nascere la richiesta di un nuovo tipo di agenzia per affrontare questi danni senza precedenti. 

Con lo spostamento della finestra di Overton il danno è fatto? “Se parliamo di un futuro lontano, se parliamo di rischi mitologici, allora stiamo completamente riformulando il problema in modo che sia un problema che esiste in un mondo fantastico e le sue soluzioni possono esistere anche in un mondo fantastico”, afferma Whittaker. 

Ma Whittaker sottolinea anche che le discussioni politiche sull’IA sono in corso da anni, più a lungo di questo recente brusio di paure. “Non credo all’inevitabilità”, afferma. “Questo clamore si placherà”.

Related Posts
Total
0
Share