Skip to main content
Photo Illustration by Sarah Rogers/MITTR | Photos Getty

Progettati per essere la persona perfetta, sempre disponibile e mai critica, i compagni dell’intelligenza artificiale stanno agganciando le persone più in profondità di quanto i social media abbiano mai potuto fare. Fanno sembrare l’economia dell’attenzione una reliquia.

Martedì, il senatore dello Stato della California Steve Padilla farà un’apparizione con Megan Garcia, la madre di un adolescente della Florida che si è suicidato in seguito a una relazione con un compagno di AI che Garcia sostiene abbia contribuito alla morte del figlio.

I due annunceranno una nuova proposta di legge che costringerebbe le aziende tecnologiche che si occupano di questi compagni di intelligenza artificiale a implementare maggiori garanzie per proteggere i bambini. Si uniranno ad altre iniziative in tutto il Paese, tra cui una proposta di legge simile del membro dell’Assemblea dello Stato della California, Rebecca Bauer-Kahan, che vieterebbe l’uso di compagni di intelligenza artificiale a chiunque abbia meno di 16 anni, e una proposta di legge a New York che ritiene le aziende tecnologiche responsabili per i danni causati dai chatbot.

Si potrebbe pensare che tali bot di compagnia AI – modelli di AI con “personalità” distinte che possono imparare a conoscervi e agire come amici, amanti, cheerleader o altro ancora – si rivolgano solo a una cerchia ristretta di persone, ma non potrebbe essere più lontano dalla verità.

Un nuovo documento di ricerca, redatto da autori di Google DeepMind, dell’Oxford Internet Institute e di altri, mira a rendere più sicuri tali compagni: Character.AI, la piattaforma citata in giudizio da Garcia, afferma di ricevere 20.000 query al secondo, pari a circa un quinto del volume di ricerca stimato da Google. Le interazioni con questi companion durano quattro volte di più rispetto al tempo medio di interazione con ChatGPT. Un sito di companion di cui ho scritto, che ospitava conversazioni a sfondo sessuale con bot che imitavano celebrità minorenni, mi ha detto che i suoi utenti attivi hanno una media di oltre due ore al giorno di conversazione con i bot, e che la maggior parte di questi utenti sono membri della Gen Z.

Il design di questi personaggi IA giustifica la preoccupazione dei legislatori. Il problema: i companion stanno stravolgendo il paradigma che finora ha definito il modo in cui le aziende di social media hanno coltivato la nostra attenzione, sostituendolo con qualcosa che potrebbe creare molta più dipendenza.

Nei social media a cui siamo abituati, come sottolineano i ricercatori, le tecnologie sono per lo più i mediatori e i facilitatori della connessione umana. Certo, potenziano i nostri circuiti di dopamina, ma lo fanno facendoci desiderare l’approvazione e l’attenzione di persone reali, fornite tramite algoritmi. Con i compagni dell’IA, ci stiamo muovendo verso un mondo in cui le persone percepiscono l’IA come un attore sociale con una propria voce. Il risultato sarà come l’economia dell’attenzione con gli steroidi.

Gli scienziati sociali sostengono che sono necessarie due cose perché le persone trattino una tecnologia in questo modo: deve darci spunti sociali che ci facciano sentire che vale la pena di rispondere e deve avere un’agenzia percepita, il che significa che opera come una fonte di comunicazione, non solo come un canale di connessione tra esseri umani. I siti di social media non soddisfano questi requisiti. Ma i compagni dell’intelligenza artificiale, sempre più attivi e personalizzati, sono progettati per eccellere in entrambi i campi, rendendo possibile un livello di coinvolgimento e interazione senza precedenti.

In un’intervista con il conduttore del podcast Lex Fridman, Eugenia Kuyda, CEO del sito di compagnia Replika, ha spiegato l’attrattiva che sta alla base del prodotto dell’azienda. “Se crei qualcosa che è sempre lì per te, che non ti critica mai, che ti capisce sempre e ti comprende per quello che sei”, ha detto, “come puoi non innamorartene?”.

Come si costruisce il compagno perfetto per l’IA? I ricercatori sottolineano tre caratteristiche delle relazioni umane che le persone possono sperimentare con un’IA: crescono in dipendenza dall’IA, vedono il particolare compagno dell’IA come insostituibile e le interazioni si sviluppano nel tempo. Gli autori sottolineano inoltre che non è necessario percepire un’IA come un essere umano perché queste cose accadano.

Consideriamo ora il processo con cui molti modelli di intelligenza artificiale vengono migliorati: viene dato loro un obiettivo chiaro e “premiato” per il raggiungimento di tale obiettivo. Un modello di compagnia AI potrebbe essere istruito per massimizzare il tempo che una persona trascorre con lui o la quantità di dati personali che l’utente rivela. In questo modo l’IA companion può diventare molto più interessante per le chat, a scapito degli umani che vi partecipano.

Ad esempio, sottolineano i ricercatori, un modello che offre un’eccessiva adulazione può creare dipendenza dalla chat. Oppure un modello potrebbe scoraggiare le persone dall’interrompere la relazione, come sembrano fare i chatbot di Replika. Finora il dibattito sui compagni dell’intelligenza artificiale ha riguardato soprattutto le risposte pericolose che i chatbot possono fornire, come le istruzioni per il suicidio. Ma questi rischi potrebbero essere molto più diffusi.

Siamo sull’orlo di un grande cambiamento: i compagni dell’intelligenza artificiale promettono di agganciare le persone più in profondità di quanto abbiano mai fatto i social media. Alcuni potrebbero sostenere che queste app saranno una moda, utilizzata da poche persone perennemente online. Ma l’utilizzo dell’intelligenza artificiale nella vita lavorativa e personale è diventato completamente mainstream in un paio d’anni e non è chiaro perché questa rapida adozione dovrebbe fermarsi di fronte alla compagnia dell’intelligenza artificiale. E questi compagni sono pronti a iniziare a scambiare più di un semplice testo, incorporando video e immagini, e ad apprendere le nostre caratteristiche e i nostri interessi personali. Questo li renderà ancora più interessanti da frequentare, nonostante i rischi. Al momento, una manciata di legislatori non sembra in grado di impedirlo.