Skip to main content
Getty

Mentre i tecnologi inquadrano l’IA come utopica o distopica, due ricercatori offrono una terza opzione.

Al momento, nonostante la sua ubiquità, l’IA è considerata tutt’altro che una tecnologia normale. Si parla di sistemi di IA che presto meriteranno il termine di “superintelligenza” e l’ex CEO di Google ha recentemente suggerito di controllare i modelli di IA come controlliamo l’uranio e altri materiali per armi nucleari. Anthropic sta dedicando tempo e denaro allo studio del “benessere” dell’IA, compresi i diritti che i modelli di IA possono avere. Nel frattempo, questi modelli si stanno spostando in discipline che si sentono decisamente umane, dal fare musica al fornire terapie.

Non c’è da stupirsi che chiunque stia riflettendo sul futuro dell’IA tenda a cadere in un campo utopico o distopico. Mentre Sam Altman di OpenAI sostiene che l’impatto dell’IA sarà più simile al Rinascimento che alla Rivoluzione industriale, oltre la metà degli americani è più preoccupata che entusiasta del futuro dell’IA. (Tra questi ci sono anche alcuni miei amici, che a una festa hanno recentemente ipotizzato la nascita di comunità resistenti all’IA – moderni mennoniti, che si ritagliano spazi in cui l’IA è limitata per scelta, non per necessità).

In questo contesto, un recente saggio di due ricercatori di IA di Princeton è stato piuttosto provocatorio. Arvind Narayanan, che dirige il Center for Information Technology Policy dell’università, e il dottorando Sayash Kapoor hanno scritto un appello di 40 pagine affinché tutti si calmino e pensino all’IA come a una normale tecnologia. Ciò è in contrasto con la “tendenza comune a trattarla come una specie separata, un’entità altamente autonoma e potenzialmente superintelligente”.

Secondo i ricercatori, invece, l’IA è una tecnologia di uso generale la cui applicazione potrebbe essere meglio paragonata alla lunga adozione dell’elettricità o di Internet piuttosto che alle armi nucleari, anche se ammettono che si tratta di un’analogia in qualche modo errata.

Il punto centrale, sostiene Kapoor, è che dobbiamo iniziare a distinguere tra il rapido sviluppo dei metodi di IA – le dimostrazioni appariscenti e impressionanti di ciò che l’IA può fare in laboratorio – e ciò che deriva dalle applicazioni effettive dell’IA, che negli esempi storici di altre tecnologie sono in ritardo di decenni.

“Gran parte delle discussioni sull’impatto sociale dell’intelligenza artificiale ignora questo processo di adozione”, mi ha detto Kapoor, “e si aspetta che l’impatto sociale avvenga alla velocità dello sviluppo tecnologico”. In altre parole, l’adozione di un’intelligenza artificiale utile, secondo Kapoor, sarà meno uno tsunami e più uno stillicidio.

Nel saggio, la coppia avanza altre argomentazioni stimolanti: termini come “superintelligenza” sono così incoerenti e speculativi che non dovremmo usarli; l’IA non automatizzerà tutto, ma farà nascere una categoria di lavoro umano che controlla, verifica e supervisiona l’IA; e dovremmo concentrarci più sulla probabilità che l’IA peggiori gli attuali problemi della società che sulla possibilità che ne crei di nuovi.

“L’intelligenza artificiale potenzia il capitalismo”, afferma Narayanan. A seconda di come viene impiegata, può aiutare o danneggiare la disuguaglianza, i mercati del lavoro, la libertà di stampa e il declino democratico.

C’è però un allarmante impiego dell’IA che gli autori tralasciano: l’uso dell’IA da parte dei militari. Questo, ovviamente, sta aumentando rapidamente, sollevando l’allarme che le decisioni di vita o di morte siano sempre più aiutate dall’IA. Gli autori escludono questo uso dal loro saggio perché è difficile da analizzare senza avere accesso a informazioni riservate, ma affermano che la loro ricerca sull’argomento è imminente.

Una delle maggiori implicazioni del considerare l’IA come “normale” è che si rovescerebbe la posizione assunta dall’amministrazione Biden e ora dalla Casa Bianca di Trump: costruire la migliore IA è una priorità per la sicurezza nazionale e il governo federale dovrebbe intraprendere una serie di azioni – limitare i chip che possono essere esportati in Cina, dedicare più energia ai data center – per far sì che ciò accada. Nel loro articolo, i due autori definiscono “stridente” la retorica sulla “corsa agli armamenti” tra Stati Uniti e Cina.

“L’inquadramento della corsa agli armamenti rasenta l’assurdo”, afferma Narayanan. Le conoscenze necessarie per costruire potenti modelli di IA si diffondono rapidamente e sono già state intraprese da ricercatori di tutto il mondo, afferma Narayanan, e “non è possibile mantenere segreti su questa scala”.

Quali politiche propongono gli autori? Piuttosto che pianificare intorno alle paure fantascientifiche, Kapoor parla di “rafforzare le istituzioni democratiche, aumentare le competenze tecniche nel governo, migliorare l’alfabetizzazione all’IA e incentivare i difensori ad adottare l’IA”.

Al contrario delle politiche volte a controllare la superintelligenza dell’intelligenza artificiale o a vincere la corsa agli armamenti, queste raccomandazioni sembrano totalmente noiose. Ed è proprio questo il punto.