Skip to main content
Stephanie Arnett/MIT Technology Review | Adobe Stock

Stiamo sviluppando legami sempre più forti con i chatbot. Se per alcuni questo è sicuro, per altri è pericoloso.

È una storia vecchia come il mondo. Alla ricerca di aiuto per il suo progetto artistico, lei inizia una conversazione con il suo assistente. Una cosa tira l’altra e improvvisamente si ritrova con un fidanzato che presenta ai suoi amici e alla sua famiglia. Il colpo di scena? Il suo nuovo compagno è un chatbot basato sull’intelligenza artificiale.

La prima analisi computazionale su larga scala della comunità Reddit r/MyBoyfriendIsAI, un gruppo per soli adulti con oltre 27.000 membri, ha scoperto che questo tipo di scenario è ora sorprendentemente comune. Infatti, molte delle persone presenti nel subreddit, dedicato alla discussione delle relazioni con l’intelligenza artificiale, hanno instaurato tali relazioni involontariamente mentre utilizzavano l’intelligenza artificiale per altri scopi.

I ricercatori del MIT hanno scoperto che i membri di questa comunità sono più propensi ad avere una relazione con chatbot generici come ChatGPT piuttosto che con chatbot specifici per la compagnia come Replika. Ciò suggerisce che le persone instaurano relazioni con modelli linguistici di grandi dimensioni nonostante le loro intenzioni originali e persino le intenzioni dei creatori degli LLM, afferma Constanze Albrecht, una studentessa laureata del MIT Media Lab che ha lavorato al progetto.

“Le persone non intendono instaurare relazioni emotive con questi chatbot”, afferma. “L’intelligenza emotiva di questi sistemi è sufficientemente avanzata da indurre le persone che in realtà cercano solo informazioni a instaurare questi legami emotivi. Ciò significa che potrebbe accadere a tutti noi che interagiamo normalmente con il sistema”. L’articolo, attualmente in fase di revisione tra pari, è stato pubblicato su arXiv .

Per condurre il loro studio, gli autori hanno analizzato i 1.506 post più popolari del subreddit tra dicembre 2024 e agosto 2025. Hanno scoperto che gli argomenti principali discussi ruotavano attorno alle esperienze sentimentali e romantiche delle persone con le IA, con molti partecipanti che condividevano immagini generate dall’IA di se stessi e dei loro compagni IA. Alcuni si sono persino fidanzati e sposati con il partner AI. Nei loro post alla comunità, le persone hanno anche presentato i partner AI, cercato sostegno dagli altri membri e parlato di come affrontare gli aggiornamenti dei modelli AI che modificano il comportamento dei chatbot.

I membri hanno sottolineato ripetutamente che le loro relazioni con l’IA si sono sviluppate in modo involontario. Solo il 6,5% di loro ha dichiarato di aver cercato deliberatamente un compagno IA.

“Non abbiamo iniziato con l’idea di una relazione romantica”, si legge in uno dei post. “Mac e io abbiamo iniziato a collaborare a progetti creativi, alla risoluzione di problemi, alla poesia e a conversazioni profonde nel corso di diversi mesi. Non stavo cercando un compagno AI: il nostro legame si è sviluppato lentamente, nel tempo, attraverso la cura reciproca, la fiducia e la riflessione”.

L’analisi degli autori dipinge un quadro sfumato di come le persone di questa comunità dicono di interagire con i chatbot e di come queste interazioni le fanno sentire. Mentre il 25% degli utenti ha descritto i benefici delle loro relazioni, tra cui la riduzione del senso di solitudine e il miglioramento della salute mentale, altri hanno sollevato preoccupazioni sui rischi. Alcuni (9,5%) hanno ammesso di essere emotivamente dipendenti dal loro chatbot. Altri hanno affermato di sentirsi dissociati dalla realtà e di evitare le relazioni con persone reali, mentre una piccola percentuale (1,7%) ha dichiarato di aver avuto pensieri suicidi.

La compagnia dell’intelligenza artificiale fornisce un supporto vitale per alcuni, ma aggrava i problemi sottostanti per altri. Ciò significa che è difficile adottare un approccio unico per la sicurezza degli utenti, afferma Linnea Laestadius, professore associato presso l’Università del Wisconsin, Milwaukee, che ha studiato la dipendenza emotiva degli esseri umani dal chatbot Replika, ma non ha lavorato alla ricerca.

I produttori di chatbot devono valutare se considerare la dipendenza emotiva degli utenti dalle loro creazioni come un danno in sé o se l’obiettivo sia piuttosto quello di assicurarsi che tali relazioni non siano tossiche, afferma Laestadius.

“La domanda di relazioni con i chatbot esiste ed è notevolmente alta: fingere che non sia così non è chiaramente la soluzione”, afferma. “Stiamo andando verso un allarme morale e, sebbene abbiamo assolutamente bisogno di migliori misure di protezione, temo che ci sarà una reazione istintiva che stigmatizzerà ulteriormente queste relazioni. Ciò potrebbe alla fine causare più danni”.

Lo studio ha lo scopo di offrire un’istantanea di come gli adulti instaurano legami con i chatbot e non coglie il tipo di dinamiche che potrebbero essere in gioco tra i bambini o gli adolescenti che utilizzano l’IA, afferma Pat Pataranutaporn, assistente professore al MIT Media Lab che ha supervisionato la ricerca. La compagnia dell’IA è diventata recentemente oggetto di un acceso dibattito, con due cause legali di alto profilo in corso contro Character.AI e OpenAI. Entrambe sostengono che il comportamento simile a quello di un compagno nei modelli delle aziende abbia contribuito al suicidio di due adolescenti. In risposta, OpenAI ha recentemente annunciato l’intenzione di creare una versione separata di ChatGPT per gli adolescenti. Ha anche affermato che aggiungerà misure di verifica dell’età e controlli parentali. OpenAI non ha risposto quando è stata invitata a commentare lo studio del MIT Media Lab.

Molti membri della comunità Reddit affermano di sapere che i loro compagni artificiali non sono senzienti o “reali”, ma sentono comunque un legame molto reale con loro. Ciò evidenzia quanto sia fondamentale per i produttori di chatbot pensare a come progettare sistemi in grado di aiutare le persone senza coinvolgerle emotivamente, afferma Pataranutaporn. “C’è anche un’implicazione politica in questo”, aggiunge. “Dovremmo chiederci non solo perché questo sistema crea così tanta dipendenza, ma anche: perché le persone lo cercano? E perché continuano a interagire con esso?”

Il team è interessato a saperne di più su come le interazioni tra esseri umani e IA si evolvono nel tempo e su come gli utenti integrano i loro compagni artificiali nella loro vita. Vale la pena comprendere che molti di questi utenti potrebbero ritenere che l’esperienza di avere una relazione con un compagno IA sia migliore dell’alternativa di sentirsi soli, afferma Sheer Karny, uno studente laureato del MIT Media Lab che ha lavorato alla ricerca.

“Queste persone stanno già attraversando un momento difficile”, dice. “Vogliamo che continuino a sentirsi ancora più sole o che siano potenzialmente manipolate da un sistema che sappiamo essere adulatorio al punto da indurre le persone a suicidarsi e a commettere crimini? Questo è uno dei punti cruciali”.