Gli etici sostengono che un “gemello psicologico digitale” potrebbe aiutare i medici e i familiari a prendere decisioni per le persone che non possono parlare da sole.
Qualche mese fa, una donna di circa 50 anni – chiamiamola Sophie – ha avuto un ictus emorragico. Il suo cervello ha iniziato a sanguinare. È stata operata al cervello, ma il suo cuore ha smesso di battere.
Il calvario di Sophie le ha provocato danni cerebrali significativi. Non rispondeva, non riusciva a stringere le dita o ad aprire gli occhi quando le veniva chiesto, e non si muoveva quando le veniva pizzicata la pelle. Aveva bisogno di un tubo tracheostomico nel collo per respirare e di un tubo di alimentazione per fornire nutrimento direttamente allo stomaco, perché non poteva deglutire. Come si sarebbe dovuto procedere con le cure mediche?
La difficile questione è stata lasciata, come di solito accade in questo tipo di situazioni, ai membri della famiglia di Sophie, ricorda Holland Kaplan, medico interno del Baylor College of Medicine che ha partecipato alle cure di Sophie. Ma la famiglia non era d’accordo. La figlia di Sophie era fermamente convinta che la madre volesse smettere di essere sottoposta a trattamenti medici ed essere lasciata morire in pace. Un altro membro della famiglia non era d’accordo e insisteva che Sophie era “una combattente”. La situazione era angosciante per tutte le persone coinvolte, compresi i medici di Sophie.
Le decisioni di fine vita possono essere estremamente sconvolgenti per i surrogati, le persone che devono prendere queste decisioni per conto di un’altra persona, afferma David Wendler, bioeticista presso il National Institutes of Health statunitense. Wendler e i suoi colleghi hanno lavorato a un’idea che potrebbe rendere le cose più semplici: uno strumento basato sull’intelligenza artificiale che possa aiutare i surrogati a prevedere ciò che i pazienti stessi vorrebbero in una determinata situazione.
Lo strumento non è ancora stato costruito. Ma Wendler prevede di addestrarlo sui dati medici, sui messaggi personali e sui post dei social media di una persona. Spera che possa non solo essere più preciso nell’elaborare ciò che il paziente vorrebbe, ma anche alleviare lo stress e il carico emotivo di un processo decisionale difficile per i familiari.
Wendler, insieme al bioeticista Brian Earp dell’Università di Oxford e ai loro colleghi, spera di iniziare a costruire lo strumento non appena si saranno assicurati i finanziamenti necessari, potenzialmente nei prossimi mesi. Ma la sua diffusione non sarà semplice. I critici si chiedono come uno strumento del genere possa essere eticamente addestrato sui dati di una persona e se le decisioni sulla vita o sulla morte debbano mai essere affidate all’intelligenza artificiale.
Vivere o morire
Circa il 34% delle persone ricoverate in un ambiente medico è considerato incapace di prendere decisioni sulle proprie cure per vari motivi. Possono essere incoscienti, ad esempio, o incapaci di ragionare o comunicare. Questo dato è più elevato tra le persone anziane: uno studio condotto negli Stati Uniti su persone di età superiore ai 60 anni ha rilevato che il 70% di coloro che dovevano prendere decisioni importanti sulle proprie cure non erano in grado di farlo da soli. “Non si tratta solo di molte decisioni, ma di molte decisioni davvero importanti”, afferma Wendler. “Il tipo di decisioni che fondamentalmente decidono se la persona vivrà o morirà nel prossimo futuro”.
Le compressioni toraciche somministrate a un cuore in crisi potrebbero allungare la vita di una persona. Ma il trattamento potrebbe causare la rottura dello sterno e delle costole e, quando la persona si riprenderà, potrebbero essersi sviluppati danni cerebrali significativi. Mantenere il cuore e i polmoni in funzione con una macchina potrebbe mantenere un apporto di sangue ossigenato agli altri organi, ma la guarigione non è garantita e nel frattempo la persona potrebbe sviluppare numerose infezioni. Un malato terminale potrebbe voler continuare a provare i farmaci e le procedure somministrate in ospedale che potrebbero offrire qualche settimana o mese in più. Un’altra persona, invece, potrebbe voler rinunciare a questi interventi e stare più comoda a casa.
Solo circa un adulto su tre negli Stati Uniti compila un qualsiasi tipo di direttiva anticipata, un documento legale che specifica l’assistenza di fine vita che si desidera ricevere. Wendler stima che oltre il 90% delle decisioni di fine vita finiscano per essere prese da una persona diversa dal paziente. Il ruolo di un surrogato è quello di prendere la decisione in base alle convinzioni su come il paziente vorrebbe essere trattato. Ma in genere le persone non sono molto brave a fare questo tipo di previsioni. Gli studi suggeriscono che i surrogati prevedono con precisione le decisioni di fine vita del paziente circa il 68% delle volte.
Anche le decisioni stesse possono essere estremamente angoscianti, aggiunge Wendler. Mentre alcuni surrogati provano un senso di soddisfazione per aver sostenuto i loro cari, altri lottano con il peso emotivo e possono sentirsi in colpa per mesi o addirittura anni dopo. Alcuni temono di aver posto fine alla vita dei loro cari troppo presto. Altri temono di aver prolungato inutilmente la loro sofferenza. “Per molte persone è davvero brutto”, dice Wendler. “Le persone lo descrivono come una delle cose peggiori che abbiano mai dovuto fare”.
Wendler ha lavorato su come aiutare i surrogati a prendere questo tipo di decisioni. Più di 10 anni fa, ha sviluppato l’idea di uno strumento che prevedesse le preferenze di un paziente sulla base di caratteristiche quali l’età, il sesso e lo stato assicurativo. Questo strumento si sarebbe basato su un algoritmo informatico addestrato sui risultati di un sondaggio condotto tra la popolazione generale. Può sembrare grossolano, ma queste caratteristiche sembrano influenzare il modo in cui le persone percepiscono le cure mediche. Un adolescente è più propenso a scegliere un trattamento aggressivo rispetto a un novantenne, per esempio. Inoltre, la ricerca suggerisce che le previsioni basate sulle medie possono essere più accurate delle ipotesi fatte dai familiari.
Nel 2007, Wendler e i suoi colleghi hanno realizzato una versione preliminare “molto semplice” di questo strumento, basata su una piccola quantità di dati. Secondo Wendler, questo strumento semplicistico ha funzionato “almeno quanto i surrogati dei parenti prossimi” nel prevedere il tipo di assistenza che le persone avrebbero voluto.
Ora Wendler, Earp e i loro colleghi stanno lavorando a una nuova idea. Invece di basarsi su caratteristiche grezze, il nuovo strumento che i ricercatori intendono costruire sarà personalizzato. Il team propone di utilizzare l’intelligenza artificiale e l’apprendimento automatico per prevedere le preferenze terapeutiche di un paziente sulla base di dati personali come la storia medica, oltre a e-mail, messaggi personali, cronologia di navigazione sul web, post sui social media e persino like su Facebook. Il risultato sarebbe un “gemello psicologico digitale” di una persona, uno strumento che medici e familiari potrebbero consultare per orientare le cure mediche. Non è ancora chiaro come potrebbe essere in pratica, ma il team spera di costruire e testare lo strumento prima di perfezionarlo.
I ricercatori chiamano il loro strumento “predittore personalizzato delle preferenze del paziente”, o in breve P4. In teoria, se funziona come sperano, potrebbe essere più preciso della versione precedente dello strumento e più preciso dei surrogati umani, dice Wendler. Potrebbe riflettere meglio il pensiero attuale del paziente rispetto a un testamento biologico, che potrebbe essere stato firmato un decennio prima, dice Earp.
Una scommessa migliore?
Uno strumento come il P4 potrebbe anche aiutare ad alleviare il carico emotivo che i surrogati sentono nel prendere decisioni così importanti sulla vita o sulla morte dei loro familiari, che a volte possono lasciare le persone con sintomi di disturbo da stress post-traumatico, dice Jennifer Blumenthal-Barby, un’etica medica del Baylor College of Medicine in Texas.
Secondo Kaplan, alcuni surrogati soffrono di “paralisi decisionale” e potrebbero scegliere di utilizzare lo strumento per essere guidati nel processo decisionale. In casi come questi, il P4 potrebbe contribuire ad alleviare il peso che i surrogati potrebbero avere, senza necessariamente dare una risposta univoca. Potrebbe, ad esempio, suggerire che una persona è “probabile” o “improbabile” che si senta in un certo modo riguardo a un trattamento, o fornire un punteggio percentuale che indica la probabilità che la risposta sia giusta o sbagliata.
Kaplan può immaginare che uno strumento come il P4 sia utile in casi come quello di Sophie, in cui i vari membri della famiglia potrebbero avere opinioni diverse sulle cure mediche di una persona. In questi casi, lo strumento potrebbe essere offerto a questi familiari, idealmente per aiutarli a prendere una decisione insieme.
Potrebbe anche aiutare a guidare le decisioni sulle cure per le persone che non hanno un surrogato. La Kaplan è medico interno presso il Ben Taub Hospital di Houston, un ospedale “a rete di sicurezza” che cura i pazienti indipendentemente dal fatto che abbiano o meno un’assicurazione sanitaria. “Molti dei nostri pazienti sono privi di documenti, incarcerati, senzatetto”, dice. “Ci prendiamo cura di pazienti che fondamentalmente non possono essere curati altrove”.
Quando Kaplan li vede, questi pazienti sono spesso in gravi difficoltà e allo stadio terminale della malattia. Molti di loro non sono in grado di discutere delle loro cure e alcuni non hanno familiari che possano parlare a loro nome. La Kaplan dice che potrebbe immaginare l’uso di uno strumento come il P4 in situazioni come queste, per dare ai medici un’idea più precisa di ciò che il paziente potrebbe desiderare. In questi casi, ad esempio, potrebbe essere difficile trovare il profilo della persona sui social media. Ma altre informazioni potrebbero rivelarsi utili. “Se qualcosa risulta essere un fattore predittivo, lo voglio nel modello”, dice Wendler. “Se si scopre che il colore dei capelli o il luogo in cui le persone hanno frequentato la scuola elementare o la prima lettera del loro cognome si rivelano utili [per predire i desideri di una persona], allora vorrei aggiungerli”.
Questo approccio è sostenuto dalle ricerche preliminari di Earp e dei suoi colleghi, che hanno iniziato a condurre sondaggi per scoprire come le persone potrebbero sentirsi all’interno del P4. La ricerca è in corso, ma le prime risposte suggeriscono che le persone sarebbero disposte a provare il modello anche se non fossero disponibili surrogati umani. Earp dice di pensarla allo stesso modo. Dice anche che se il P4 e un surrogato dovessero dare previsioni diverse, “probabilmente mi affiderei all’uomo che mi conosce, piuttosto che al modello”.
Non un umano
I sentimenti di Earp tradiscono un istinto che molti altri condivideranno: che queste enormi decisioni dovrebbero idealmente essere prese da un essere umano. “La domanda è: come vogliamo che vengano prese le decisioni di fine vita e da chi?”, afferma Georg Starke, ricercatore presso il Politecnico federale di Losanna. Egli si preoccupa del rischio di adottare un approccio tecno-soluzionista e di trasformare decisioni intime, complesse e personali in “un problema di ingegneria”.
Bryanna Moore, un’etica dell’Università di Rochester, dice che la sua prima reazione quando ha sentito parlare della P4 è stata: “Oh, no”. La Moore è un’etica clinica che offre consulenze a pazienti, familiari e personale ospedaliero in due ospedali. “Gran parte del nostro lavoro consiste nel sedersi con persone che si trovano ad affrontare decisioni terribili… non hanno alternative valide”, afferma. “Ciò di cui i surrogati hanno davvero bisogno è di sedersi con loro e ascoltare la loro storia e sostenerli attraverso l’ascolto attivo e la convalida del [loro] ruolo… Non so quanto ci sia bisogno di qualcosa del genere, ad essere onesti”.
Moore accetta il fatto che i surrogati non sempre azzeccano le decisioni sulle cure dei loro cari. Anche se fossimo in grado di chiederlo ai pazienti stessi, le loro risposte probabilmente cambierebbero nel tempo. Moore chiama questo problema “il sé di allora, il sé di adesso”.
E non pensa che uno strumento come il P4 possa necessariamente risolvere il problema. Anche se le volontà di una persona sono state espresse chiaramente in note precedenti, messaggi e post sui social media, può essere molto difficile sapere come ci si sentirà in una situazione medica finché non ci si trova in essa. Kaplan ricorda di aver curato un uomo di 80 anni affetto da osteoporosi che era stato categorico nel voler ricevere le compressioni toraciche se il suo cuore avesse smesso di battere. Ma quando arrivò il momento, le sue ossa erano troppo sottili e fragili per sopportare le compressioni. Kaplan ricorda di aver sentito le ossa scricchiolare “come uno stuzzicadenti” e lo sterno dell’uomo staccarsi dalle costole. “E poi mi sono chiesto: cosa stiamo facendo? Chi stiamo aiutando? Qualcuno può davvero volerlo?”, dice Kaplan.
Ci sono altre preoccupazioni. Per cominciare, un’intelligenza artificiale addestrata sui post di una persona sui social media potrebbe non essere poi così tanto un “gemello psicologico”. “Chiunque di noi abbia una presenza sui social media sa che spesso ciò che mettiamo sul nostro profilo non rappresenta realmente ciò che crediamo o apprezziamo o vogliamo”, afferma Blumenthal-Barby. E anche se lo facessimo, è difficile sapere in che modo questi post potrebbero riflettere i nostri sentimenti riguardo alle cure di fine vita: molte persone hanno già difficoltà ad affrontare queste discussioni con i propri familiari, figuriamoci su piattaforme pubbliche.
Allo stato attuale, l’intelligenza artificiale non fa sempre un ottimo lavoro nel fornire risposte alle domande degli esseri umani. Anche modificando sottilmente il prompt dato a un modello di IA si può ottenere una risposta completamente diversa. “Immaginate che questo accada a un modello linguistico di grandi dimensioni che dovrebbe dirvi cosa vuole un paziente alla fine della sua vita”, dice Starke. “È spaventoso”.
D’altra parte, anche gli esseri umani sono fallibili. Vasiliki Rahimzadeh, bioeticista presso il Baylor College of Medicine, ritiene che il P4 sia una buona idea, a patto che sia rigorosamente testato. “Non dovremmo considerare queste tecnologie a uno standard più alto di quello che abbiamo noi stessi”, afferma.
Earp e Wendler riconoscono le sfide che li attendono. Sperano che lo strumento che hanno costruito possa acquisire informazioni utili che riflettano i desideri di una persona senza violare la privacy. Vogliono che sia una guida utile che i pazienti e i surrogati possano scegliere di usare, ma non un modo predefinito per dare risposte definitive in bianco e nero sulle cure di una persona.
Anche se dovessero avere successo su questi fronti, potrebbero non essere in grado di controllare l’uso finale di questo strumento. Prendiamo ad esempio un caso come quello di Sophie. Se si utilizzasse il P4, la sua previsione potrebbe servire solo a incrinare ulteriormente i rapporti familiari già sotto pressione. E se viene presentata come l’indicatore più vicino ai desideri del paziente stesso, è possibile che i medici del paziente si sentano legalmente obbligati a seguire i risultati della P4 piuttosto che le opinioni dei familiari, dice Blumenthal-Barby. “Questo potrebbe essere molto complicato, e anche molto angosciante, per i familiari”, afferma l’esperta.
“Quello che mi preoccupa di più è chi lo controlla”, dice Wendler. Teme che gli ospedali possano abusare di strumenti come il P4 per evitare, ad esempio, di intraprendere procedure costose. “Potrebbero esserci incentivi finanziari di ogni tipo”, afferma.
Tutti coloro che sono stati contattati da MIT Technology Review concordano sul fatto che l’uso di uno strumento come il P4 dovrebbe essere facoltativo e che non piacerà a tutti. “Penso che abbia il potenziale per essere utile ad alcune persone”, dice Earp. “Penso che ci siano molte persone che non si sentiranno a proprio agio all’idea che un sistema artificiale debba essere coinvolto in qualche modo nel loro processo decisionale, con una posta in gioco così alta”.