
Alcuni terapeuti utilizzano l’intelligenza artificiale durante le sedute. In questo modo mettono a rischio la fiducia e la privacy dei loro clienti.
Declan non avrebbe mai scoperto che il suo terapeuta utilizzava ChatGPT se non fosse stato per un contrattempo tecnico. La connessione era instabile durante una delle loro sedute online, quindi Declan ha suggerito di disattivare i feed video. Invece, il suo terapeuta ha iniziato inavvertitamente a condividere il suo schermo.
“All’improvviso, mi sono ritrovato a guardarlo mentre utilizzava ChatGPT”, racconta Declan, 31 anni, che vive a Los Angeles. “Prendeva ciò che dicevo e lo inseriva in ChatGPT, per poi riassumere o selezionare le risposte”.
Declan era così scioccato che non disse nulla e per il resto della sessione assistette in tempo reale all’analisi di ChatGPT che appariva sullo schermo del suo terapeuta. La sessione è diventata ancora più surreale quando Declan ha iniziato a ripetere le risposte di ChatGPT, anticipando il suo terapeuta.
“Sono diventato il miglior paziente di sempre”, dice, “perché ChatGPT diceva: ‘Beh, pensi che il tuo modo di pensare sia un po’ troppo bianco o nero?’. E io rispondevo: ‘Eh, sai, penso che il mio modo di pensare sia troppo bianco o nero’, e [il mio terapeuta] diceva: ‘Esatto‘. Sono sicuro che fosse la sessione dei suoi sogni”.
Tra le domande che affollavano la mente di Declan c’era: “Ma è legale?”. Quando Declan ha sollevato l’argomento con il suo terapeuta durante la seduta successiva – “È stato super imbarazzante, come una strana rottura” – il terapeuta si è messo a piangere. Gli ha spiegato che sentiva di aver raggiunto un punto morto e aveva iniziato a cercare risposte altrove. “Mi ha comunque addebitato quella seduta”, dice Declan ridendo.
Il boom dei modelli linguistici di grandi dimensioni (LLM) degli ultimi anni ha avuto ripercussioni inaspettate nel campo della psicoterapia, soprattutto a causa del numero crescente di persone che sostituiscono i terapeuti umani con strumenti come ChatGPT. Ma di cui si parla meno è il modo in cui alcuni terapeuti stessi stanno integrando l’IA nella loro pratica. Come in molte altre professioni, l’IA generativa promette allettanti risparmi in termini di efficienza, ma la sua adozione rischia di compromettere i dati sensibili dei pazienti e di minare un rapporto in cui la fiducia è fondamentale.
Sensazioni sospette
Declan non è l’unico, come posso attestare dalla mia esperienza personale. Quando ho ricevuto una recente e-mail dalla mia terapeuta che sembrava più lunga e più curata del solito, inizialmente mi sono sentito incoraggiato. Sembrava trasmettere un messaggio gentile e rassicurante, e la sua lunghezza mi ha fatto pensare che lei avesse dedicato del tempo a riflettere su tutti i punti della mia e-mail (piuttosto delicata).
A un esame più attento, però, la sua e-mail mi è sembrata un po’ strana. Era scritta con un nuovo font e il testo mostrava diversi “segnali” dell’intelligenza artificiale, tra cui l’uso liberale del trattino americano (entrambi siamo del Regno Unito), lo stile impersonale caratteristico e l’abitudine di rispondere punto per punto a ogni argomento sollevato nell’e-mail originale.
I miei sentimenti positivi sono rapidamente svaniti, sostituiti da delusione e sfiducia, quando ho capito che probabilmente ChatGPT aveva contribuito alla stesura del messaggio, cosa che la mia terapeuta ha confermato quando gliel’ho chiesto.
Nonostante mi avesse assicurato che si limitava a dettare le e-mail più lunghe utilizzando l’intelligenza artificiale, continuavo a nutrire dei dubbi sulla misura in cui fosse lei, e non il bot, la responsabile dei sentimenti espressi. Inoltre, non riuscivo a scrollarmi di dosso il sospetto che potesse aver incollato la mia e-mail altamente personale nella sua interezza in ChatGPT.
Quando ho cercato su Internet per vedere se altri avessero avuto esperienze simili, ho trovato molti esempi di persone che avevano ricevuto dai loro terapeuti comunicazioni che sospettavano fossero state generate dall’intelligenza artificiale. Molti, tra cui Declan, si erano rivolti a Reddit per chiedere sostegno emotivo e consigli.
Così aveva fatto Hope, 25 anni, che vive sulla costa orientale degli Stati Uniti e aveva inviato un messaggio diretto al suo terapeuta riguardo alla morte del suo cane. Ha ricevuto subito una risposta. Sarebbe stato consolatorio e premuroso, esprimendo quanto dovesse essere difficile “non averlo al tuo fianco in questo momento”, se non fosse stato per il riferimento al prompt dell’IA accidentalmente conservato in cima: “Ecco una versione più umana e sentita, con un tono gentile e colloquiale”.
Hope dice di essersi sentita “sinceramente molto sorpresa e confusa”. “È stata una sensazione molto strana”, dice. “Poi ho iniziato a sentirmi un po’ tradita. … Questo ha sicuramente influito sulla mia fiducia in lei”. Questo è stato particolarmente problematico, aggiunge, perché “uno dei motivi per cui la vedevo era proprio il mio problema di fiducia”.
Hope credeva che la sua terapeuta fosse competente ed empatica e quindi “non avrebbe mai sospettato che sentisse il bisogno di usare l’intelligenza artificiale”. La sua terapeuta si è scusata quando è stata confrontata e ha spiegato che, non avendo mai avuto un animale domestico, aveva chiesto aiuto all’intelligenza artificiale per esprimere il sentimento appropriato.
Un dilemma di divulgazione
Tradimento o meno, l’argomento secondo cui l’IA potrebbe aiutare i terapeuti a comunicare meglio con i loro clienti potrebbe avere un certo fondamento. Uno studio del 2025 pubblicato su PLOS Mental Health ha chiesto ai terapeuti di utilizzare ChatGPT per rispondere a vignette che descrivevano i tipi di problemi che i pazienti potrebbero sollevare durante la terapia. Non solo un gruppo di 830 partecipanti non è stato in grado di distinguere tra le risposte umane e quelle dell’IA, ma le risposte dell’IA sono state valutate come più conformi alle migliori pratiche terapeutiche.
Tuttavia, quando i partecipanti sospettavano che le risposte fossero state scritte da ChatGPT, le valutavano peggio. (Le risposte scritte da ChatGPT ma erroneamente attribuite ai terapeuti hanno ricevuto le valutazioni più alte in assoluto).
Allo stesso modo, i ricercatori della Cornell University hanno scoperto in uno studio del 2023 che i messaggi generati dall’IA possono aumentare il senso di vicinanza e cooperazione tra gli interlocutori, ma solo se il destinatario rimane ignaro del ruolo dell’IA. Il solo sospetto del suo utilizzo ha dimostrato di compromettere rapidamente la buona volontà.
“Le persone apprezzano l’autenticità, in particolare nella psicoterapia”, afferma Adrian Aguilera, psicologo clinico e professore presso l’Università della California, Berkeley. “Penso che [l’uso dell’IA] possa dare l’impressione che ‘non si stia prendendo sul serio la mia relazione’. Devo usare ChatGPT per rispondere a mia moglie o ai miei figli? Non sembrerebbe sincero”.
Nel 2023, agli albori dell’IA generativa, il servizio di terapia online Koko ha condotto un esperimento clandestino sui propri utenti, mescolando le risposte generate da GPT-3 con quelle redatte da esseri umani. Ha scoperto che gli utenti tendevano a valutare più positivamente le risposte generate dall’IA. Tuttavia, la rivelazione che gli utenti erano stati inconsapevolmente sottoposti a un esperimento ha suscitato indignazione.
Anche il fornitore di terapia online BetterHelp è stato oggetto di accuse secondo cui i suoi terapeuti avrebbero utilizzato l’IA per redigere le risposte. In un post su Medium, il fotografo Brendan Keen ha affermato che il suo terapeuta BetterHelp ha ammesso di utilizzare l’IA nelle sue risposte, provocando in lui “un acuto senso di tradimento” e una preoccupazione persistente, nonostante le rassicurazioni, che la privacy dei suoi dati fosse stata violata. In seguito ha interrotto il rapporto.
Un portavoce di BetterHelp ci ha detto che l’azienda “vieta ai terapeuti di divulgare le informazioni personali o sanitarie dei membri a intelligenze artificiali di terze parti, o di utilizzare l’IA per redigere messaggi ai membri nella misura in cui ciò potrebbe direttamente o indirettamente avere il potenziale di identificare qualcuno”.
Tutti questi esempi riguardano un uso non divulgato dell’IA. Aguilera ritiene che i terapeuti con poco tempo a disposizione possano avvalersi degli LLM, ma la trasparenza è essenziale. “Dobbiamo essere sinceri e dire alle persone: ‘Ehi, userò questo strumento per X, Y e Z’ e fornire una motivazione”, afferma. Le persone ricevono quindi messaggi generati dall’IA con quel contesto preliminare, invece di supporre che il loro terapeuta stia “cercando di essere subdolo”.
Gli psicologi lavorano spesso al limite delle loro capacità e i livelli di burnout nella professione sono elevati, secondo una ricerca condotta nel 2023 dall’American Psychological Association. Questo contesto rende evidente il fascino degli strumenti basati sull’IA.
Ma la mancanza di trasparenza rischia di danneggiare in modo permanente la fiducia. Hope ha deciso di continuare a vedere la sua terapeuta, anche se poco dopo ha smesso di lavorare con lei per ragioni che, secondo lei, non erano correlate. “Ma ogni volta che la vedevo, pensavo sempre all’incidente dell’IA”, afferma.
Rischiare la privacy dei pazienti
Al di là della questione della trasparenza, molti terapeuti sono diffidenti nell’utilizzare gli LLM, afferma Margaret Morris, psicologa clinica e membro della facoltà affiliata all’Università di Washington.
“Penso che questi strumenti possano essere davvero preziosi per l’apprendimento”, afferma, sottolineando che i terapeuti dovrebbero continuare a sviluppare le loro competenze nel corso della loro carriera. “Ma penso che dobbiamo stare molto attenti ai dati dei pazienti”. Morris definisce l’esperienza di Declan “allarmante”.
I terapeuti devono essere consapevoli che i chatbot AI generici come ChatGPT non sono approvati dalla Food and Drug Administration statunitense e non sono conformi all’HIPAA, afferma Pardis Emami-Naeini, assistente professore di informatica alla Duke University, che ha studiato le implicazioni dei modelli LLM in materia di privacy e sicurezza in ambito sanitario. (L’HIPAA è un insieme di normative federali statunitensi che proteggono le informazioni sanitarie sensibili delle persone).
“Ciò comporta rischi significativi per la privacy dei pazienti se le informazioni che li riguardano vengono divulgate o possono essere dedotte dall’IA”, afferma.
In un recente articolo, Emami-Naeini ha scoperto che molti utenti credono erroneamente che ChatGPT sia conforme alla normativa HIPAA, creando un ingiustificato senso di fiducia nello strumento. “Mi aspetto che alcuni terapeuti possano condividere questo malinteso”, afferma.
Essendo una persona relativamente aperta, Declan afferma di non essere rimasto completamente sconvolto nell’apprendere come il suo terapeuta utilizzasse ChatGPT. “Personalmente, non penso: ‘Oh, mio Dio, ho segreti profondi e oscuri'”, ha affermato. Ma si è comunque sentito violato: “Posso immaginare che se fossi suicida, o facessi uso di droghe, o tradissi la mia ragazza… non vorrei che queste informazioni fossero inserite in ChatGPT”.
Quando si utilizza l’IA per aiutare con le e-mail, “non è così semplice come rimuovere identificatori ovvi come nomi e indirizzi”, afferma Emami-Naeini. “Le informazioni sensibili possono spesso essere dedotte da dettagli apparentemente non sensibili”.
Aggiunge: “Identificare e riformulare tutti i potenziali dati sensibili richiede tempo e competenza, il che può entrare in conflitto con la comodità prevista dall’uso degli strumenti di IA. In tutti i casi, i terapeuti dovrebbero rivelare ai pazienti il loro uso dell’IA e chiedere il loro consenso”.
Un numero crescente di aziende, tra cui Heidi Health, Upheal, Lyssn e Blueprint, commercializza strumenti specializzati per i terapeuti, come servizi di presa di appunti, formazione e trascrizione assistiti dall’intelligenza artificiale. Queste aziende affermano di essere conformi alla normativa HIPAA e di archiviare i dati in modo sicuro utilizzando la crittografia e la pseudonimizzazione, ove necessario. Tuttavia, molti terapeuti sono ancora diffidenti nei confronti delle implicazioni relative alla privacy, in particolare dei servizi che richiedono la registrazione di intere sessioni.
“Anche se le protezioni della privacy vengono migliorate, c’è sempre il rischio di fuga di informazioni o di usi secondari dei dati”, afferma Emami-Naeini.
Un attacco hacker del 2020 ai danni di un’azienda finlandese che si occupa di salute mentale, che ha portato all’accesso alle cartelle cliniche di decine di migliaia di clienti, serve da monito. Le persone presenti nell’elenco sono state ricattate e successivamente l’intero archivio è stato reso pubblico, rivelando dettagli estremamente sensibili come le esperienze di abuso sui minori e i problemi di dipendenza.
Cosa rischiano di perdere i terapeuti
Oltre alla violazione della privacy dei dati, quando gli psicoterapeuti consultano gli LLM per conto di un cliente, ci sono altri rischi. Alcuni studi hanno scoperto che, anche se alcuni bot terapeutici specializzati possono competere con gli interventi umani, i consigli di ChatGPT e simili possono fare più male che bene.
Un recente studio dell’Università di Stanford, ad esempio, ha scoperto che i chatbot possono alimentare deliri e psicopatia, poiché validano ciecamente l’utente invece di metterlo in discussione, oltre a soffrire di pregiudizi e ad assumere atteggiamenti adulatori. Gli stessi difetti potrebbero rendere rischioso per i terapeuti consultare i chatbot per conto dei loro clienti. Potrebbero, ad esempio, convalidare senza fondamento l’intuizione di un terapeuta o condurlo sulla strada sbagliata.
Aguilera afferma di aver sperimentato strumenti come ChatGPT mentre insegnava a tirocinanti in salute mentale, ad esempio inserendo sintomi ipotetici e chiedendo al chatbot AI di formulare una diagnosi. Lo strumento produce molte possibili condizioni, ma la sua analisi è piuttosto superficiale, afferma. L’American Counseling Association raccomanda di non utilizzare l’AI per la diagnosi della salute mentale al momento.
Uno studio pubblicato nel 2024 su una versione precedente di ChatGPT ha riscontrato analogamente che era troppo vago e generico per essere veramente utile nella diagnosi o nell’elaborazione di piani terapeutici, ed era fortemente orientato a suggerire alle persone di ricorrere alla terapia cognitivo-comportamentale piuttosto che ad altri tipi di terapia che potrebbero essere più adatti.
Daniel Kimmel, psichiatra e neuroscienziato della Columbia University, ha condotto esperimenti con ChatGPT fingendo di essere un cliente con problemi relazionali. Afferma di aver trovato il chatbot abbastanza efficace nel riprodurre le risposte terapeutiche “standard”, come normalizzare e convalidare, chiedere ulteriori informazioni o evidenziare determinate associazioni cognitive o emotive.
Tuttavia, “non ha approfondito molto”, afferma. Non ha cercato “di collegare cose apparentemente o superficialmente non correlate in qualcosa di coerente… per elaborare una storia, un’idea, una teoria”.
“Sarei scettico sull’utilizzarlo per pensare al posto tuo”, afferma. Pensare, dice, dovrebbe essere compito dei terapeuti.
I terapeuti potrebbero risparmiare tempo utilizzando la tecnologia basata sull’intelligenza artificiale, ma questo vantaggio dovrebbe essere valutato rispetto alle esigenze dei pazienti, afferma Morris: “Forse si risparmiano un paio di minuti. Ma cosa si perde in cambio?”





