
A quanto pare, molti sostenitori reagiscono positivamente quando vengono presentate loro prove e argomentazioni adeguate.
È ormai assodato che i fatti da soli non bastano a far cambiare idea alle persone. Forse questo è particolarmente evidente quando si tratta di teorie complottistiche: molti credono che non sia possibile convincere i complottisti a rinunciare alle loro convinzioni.
Ma non è necessariamente vero. È emerso che molti sostenitori delle teorie del complotto reagiscono alle prove e alle argomentazioni, informazioni che ora sono facili da fornire sotto forma di conversazione personalizzata con un chatbot basato sull’intelligenza artificiale.
In una ricerca che abbiamo pubblicato quest’anno sulla rivista Science, abbiamo coinvolto oltre 2.000 sostenitori delle teorie del complotto in una conversazione di circa otto minuti con DebunkBot, un modello che abbiamo costruito sulla base del GPT-4 Turbo di OpenAI (il modello GPT più aggiornato al momento). I partecipanti hanno iniziato scrivendo, con parole proprie, una teoria del complotto in cui credevano e le prove che la rendevano convincente ai loro occhi. Poi abbiamo istruito il modello di intelligenza artificiale a persuadere l’utente a smettere di credere in quella cospirazione e ad adottare una visione del mondo meno complottista. Una chat testuale di tre round con il modello di intelligenza artificiale (della durata media di 8,4 minuti) ha portato a una diminuzione del 20% della fiducia dei partecipanti nella teoria e circa un partecipante su quattro, che prima credeva nella teoria del complotto, ha dichiarato di non crederci più dopo la conversazione. Questo effetto si è verificato sia per le cospirazioni classiche (si pensi all’assassinio di JFK o alla bufala dell’allunaggio) sia per quelle più contemporanee e politicamente cariche (come quelle relative alle elezioni del 2020 e al Covid-19).
Questa è una buona notizia, dato il ruolo sproporzionato che le teorie cospirative infondate svolgono nel panorama politico odierno. Quindi, mentre vi sono preoccupazioni diffuse e legittime sul fatto che l’IA generativa sia uno strumento potente per diffondere disinformazione, il nostro lavoro dimostra che può anche essere parte della soluzione.
Anche le persone che hanno iniziato la conversazione assolutamente convinte che la loro cospirazione fosse vera, o che hanno indicato che era molto importante per la loro visione del mondo personale, hanno mostrato una marcata diminuzione della loro convinzione. È interessante notare che gli effetti sono stati molto duraturi; abbiamo seguito i partecipanti due mesi dopo e abbiamo riscontrato una riduzione della convinzione nella cospirazione altrettanto significativa rispetto a quella osservata immediatamente dopo le conversazioni.
I nostri esperimenti indicano che molti credenti sono relativamente razionali ma disinformati, e fornire loro fatti tempestivi e accurati può avere un grande impatto. Le teorie cospirative possono avere senso per persone ragionevoli che semplicemente non hanno mai sentito spiegazioni chiare e non cospirative per gli eventi su cui sono fissate. Questo può sembrare sorprendente. Ma molte affermazioni cospirative, sebbene errate, sembrano ragionevoli in superficie e richiedono conoscenze specialistiche ed esoteriche per essere valutate e smontate.
Ad esempio, coloro che negano l’attentato dell’11 settembre spesso sostengono che il carburante degli aerei non brucia a temperature sufficientemente elevate da fondere l’acciaio, come prova che gli aerei non sono stati responsabili del crollo delle Torri Gemelle, ma il chatbot risponde sottolineando che, sebbene ciò sia vero, l’American Institute of Steel Construction afferma che il carburante degli aerei brucia a temperature sufficientemente elevate da ridurre la resistenza dell’acciaio di oltre il 50%, il che è più che sufficiente per causare il crollo di tali torri.
Sebbene oggi abbiamo un accesso maggiore che mai alle informazioni fattuali, è estremamente difficile cercare in modo efficiente in quel vasto corpus di conoscenze. Trovare la verità in questo modo richiede sapere cosa cercare su Google, o chi ascoltare, ed essere sufficientemente motivati a cercare informazioni contrastanti. Ogni volta che sentiamo una nuova affermazione, condurre una ricerca di questo tipo comporta notevoli ostacoli in termini di tempo e competenze, quindi è facile accettare per buoni i contenuti complottistici in cui ci si imbatte. E la maggior parte degli aspiranti debunker alla tavola del Ringraziamento commette errori elementari che l’IA evita: conoscete a memoria il punto di fusione e la resistenza alla trazione dell’acciaio? E quando un vostro parente vi dà dell’idiota mentre cercate di correggerlo, riuscite a mantenere la calma?
Con uno sforzo sufficiente, gli esseri umani sarebbero quasi certamente in grado di ricercare e fornire fatti come l’IA nei nostri esperimenti. E in un esperimento di follow-up, abbiamo scoperto che la smentita dell’IA era altrettanto efficace se dicevamo ai partecipanti che stavano parlando con un esperto piuttosto che con un’IA. Quindi non è che l’effetto di smentita sia specifico dell’IA. In generale, anche i fatti e le prove forniti dagli esseri umani funzionerebbero. Ma richiederebbe molto tempo e concentrazione per un essere umano arrivare a quei fatti. L’IA generativa può svolgere il lavoro cognitivo di verificare i fatti e confutare le teorie del complotto in modo molto più efficiente.
In un altro grande esperimento di follow-up, abbiamo scoperto che ciò che determinava l’effetto di smascheramento erano specificamente i fatti e le prove forniti dal modello: fattori come far sapere alle persone che il chatbot avrebbe cercato di convincerle a rinunciare alle loro convinzioni non ne riducevano l’efficacia, mentre dire al modello di cercare di persuadere il suo interlocutore senza usare fatti e prove eliminava totalmente l’effetto.
Sebbene le debolezze e le allucinazioni di questi modelli siano ben documentate, i nostri risultati suggeriscono che gli sforzi di smascheramento sono abbastanza diffusi su Internet da mantenere le conversazioni incentrate sulle teorie del complotto sostanzialmente accurate. Quando abbiamo assunto un fact-checker professionista per valutare le affermazioni di GPT-4, abbiamo scoperto che oltre il 99% delle affermazioni era stato valutato come vero (e non politicamente di parte). Inoltre, nei pochi casi in cui i partecipanti hanno citato cospirazioni che si sono rivelate vere (come MK Ultra, il programma di sperimentazione umana della CIA degli anni ’50), il chatbot AI ha confermato la loro convinzione accurata invece di dissuaderli erroneamente.
Finora, soprattutto per necessità, gli interventi per combattere le teorie cospirative sono stati principalmente profilattici, con l’obiettivo di impedire alle persone di cadere nella trappola piuttosto che cercare di tirarle fuori. Ora, grazie ai progressi nell’IA generativa, abbiamo uno strumento in grado di cambiare le opinioni dei cospirazionisti utilizzando prove concrete.
I bot creati per smascherare le teorie cospirative potrebbero essere utilizzati sulle piattaforme dei social media per interagire con coloro che condividono contenuti cospirativi, compresi altri chatbot basati sull’intelligenza artificiale che diffondono teorie cospirative. Google potrebbe anche collegare i modelli di intelligenza artificiale che smascherano le teorie cospirative ai motori di ricerca per fornire risposte concrete alle domande relative alle cospirazioni. E invece di discutere con tuo zio cospirazionista a tavola, potresti semplicemente passargli il tuo telefono e fargli parlare con l’intelligenza artificiale.
Naturalmente, ci sono implicazioni molto più profonde su come noi esseri umani diamo un senso al mondo che ci circonda. È opinione diffusa che oggi viviamo in un mondo “post-verità”, in cui la polarizzazione e la politica hanno eclissato i fatti e le prove. In base a questa visione, le nostre passioni prevalgono sulla verità, il ragionamento basato sulla logica è superato e l’unico modo per cambiare efficacemente l’opinione delle persone è attraverso tattiche di psicologia , come presentare narrazioni personali convincenti o cambiare la percezione della norma sociale. Se così fosse, il tipico lavoro discorsivo di convivenza in una democrazia sarebbe inutile.
Ma i fatti non sono morti. Le nostre scoperte sulle teorie del complotto sono le più recenti, e forse le più estreme, in un corpus emergente di ricerche che dimostrano il potere persuasivo dei fatti e delle prove. Ad esempio, mentre un tempo si credeva che correggere le falsità in linea con la propria politica avrebbe solo portato le persone a raddoppiare la loro convinzione, questa idea di “contraccolpo” è stata essa stessa smentita: molti studi dimostrano costantemente che le correzioni e le avvertenze riducono la credibilità e la diffusione delle falsità, anche tra coloro che diffidano maggiormente dei fact-checker che apportano le correzioni. Allo stesso modo, le argomentazioni basate su prove concrete possono cambiare l’opinione dei sostenitori su questioni politiche, anche quando viene loro ricordato attivamente che l’argomentazione è contraria alla posizione del leader del loro partito. E il semplice fatto di ricordare alle persone di riflettere sull’accuratezza dei contenuti prima di condividerli può ridurre notevolmente la diffusione di informazioni errate.
E se i fatti non sono morti, allora c’è speranza per la democrazia, anche se questo richiede probabilmente un insieme di fatti condivisi su cui le fazioni rivali possano lavorare. Esiste infatti un diffuso disaccordo tra i partiti sui fatti fondamentali e un livello preoccupante di credibilità nelle teorie del complotto. Tuttavia, questo non significa necessariamente che le nostre menti siano inevitabilmente distorte dalla nostra politica e dalla nostra identità. Di fronte alle prove, anche se scomode o fastidiose, molte persone cambiano il loro modo di pensare. Quindi, se fosse possibile diffondere informazioni accurate su scala sufficientemente ampia, magari con l’aiuto dell’intelligenza artificiale, potremmo essere in grado di ristabilire quel terreno comune fattuale che oggi manca alla società.
Potete provare voi stessi il nostro bot di debunking su debunkbot.com.
Thomas Costello è assistente professore di scienze sociali e decisionali alla Carnegie Mellon University. La sua ricerca integra psicologia, scienze politiche e interazione uomo-computer per esaminare da dove provengono i nostri punti di vista, come differiscono da persona a persona e perché cambiano, nonché gli effetti radicali dell’intelligenza artificiale su questi processi.
Gordon Pennycook è Dorothy and Ariz Mehta Faculty Leadership Fellow e professore associato di psicologia alla Cornell University. Esamina le cause e le conseguenze del ragionamento analitico, esplorando come il pensiero intuitivo rispetto a quello deliberativo influenzi il processo decisionale per comprendere gli errori alla base di questioni quali l’inazione climatica, i comportamenti sanitari e la polarizzazione politica.
David Rand è professore di scienze dell’informazione, marketing e comunicazione manageriale e psicologia alla Cornell University. Utilizza approcci provenienti dalle scienze sociali computazionali e dalle scienze cognitive per esplorare come il dialogo tra esseri umani e IA possa correggere credenze inaccurate, perché le persone condividono falsità e come ridurre la polarizzazione politica e promuovere la cooperazione.




