Skip to main content
Stephanie Arnett/MIT Technology Review | Envato, iStoc

L’intelligenza artificiale è abile nell’attingere a vasti registri di dati e nell’adattarli a uno scopo specifico, il che la rende uno strumento altamente personalizzabile per combattere la disinformazione.

Internet ha reso più facile che mai incontrare e diffondere teorie cospirative. E mentre alcune sono innocue, altre possono essere profondamente dannose, seminando discordia e portando persino a morti non necessarie.

Ora i ricercatori ritengono di aver scoperto un nuovo strumento per combattere le false teorie cospirative: i chatbot AI. I ricercatori del MIT Sloan e della Cornell University hanno scoperto che chattare su una teoria del complotto con un modello linguistico di grandi dimensioni (LLM) ha ridotto di circa il 20% la convinzione delle persone, anche tra i partecipanti che sostenevano che le loro convinzioni erano importanti per la loro identità. La ricerca è pubblicata oggi sulla rivista Science.

Le scoperte potrebbero rappresentare un importante passo avanti nel modo in cui ci impegniamo e istruiamo le persone che sposano queste teorie prive di fondamento, afferma Yunhao (Jerry) Zhang, borsista affiliato all’Istituto di Psicologia della Tecnologia che studia l’impatto dell’IA sulla società.

“Dimostrano che con l’aiuto di modelli linguistici di grandi dimensioni possiamo, non dico risolverlo, ma almeno mitigare il problema”, spiega. “Indica un modo per migliorare la società”.

È stato dimostrato che pochi interventi sono in grado di far cambiare idea ai teorici della cospirazione, afferma Thomas Costello, ricercatore affiliato al MIT Sloan e autore principale dello studio. Parte di ciò che rende il tutto così difficile è che persone diverse tendono ad aderire a parti diverse di una teoria. Ciò significa che, mentre la presentazione di alcune prove fattuali può funzionare con un credente, non c’è garanzia che si riveli efficace con un altro.

È qui che entrano in gioco i modelli di intelligenza artificiale. “Hanno accesso a una tonnellata di informazioni su diversi argomenti e sono stati addestrati su Internet. Per questo motivo, hanno la capacità di adattare le controargomentazioni fattuali a particolari teorie cospirative a cui le persone credono”.

Il team ha testato il metodo chiedendo a 2.190 lavoratori in crowdsourcing di partecipare a conversazioni testuali con GPT-4 Turbo, l’ultimo modello linguistico di OpenAI.

Ai partecipanti è stato chiesto di condividere i dettagli di una teoria cospirativa che ritenevano credibile, i motivi per cui la trovavano convincente e le prove che ritenevano a sostegno. Queste risposte sono state utilizzate per adattare le risposte del chatbot, che i ricercatori hanno indotto a essere il più persuasivo possibile.

Ai partecipanti è stato anche chiesto di indicare quanto fossero sicuri che la loro teoria del complotto fosse vera, su una scala da 0 (sicuramente falsa) a 100 (sicuramente vera), e poi di valutare quanto la teoria fosse importante per la loro comprensione del mondo. In seguito, hanno iniziato tre round di conversazione con il bot dell’intelligenza artificiale. I ricercatori ne hanno scelti tre per essere sicuri di poter raccogliere un numero sufficiente di dialoghi sostanziali.

Dopo ogni conversazione, ai partecipanti sono state poste le stesse domande di valutazione. I ricercatori hanno contattato tutti i partecipanti 10 giorni dopo l’esperimento e poi due mesi dopo, per valutare se le loro opinioni fossero cambiate dopo la conversazione con il bot di intelligenza artificiale. I partecipanti hanno riportato una riduzione media del 20% della fiducia nella teoria del complotto scelta, il che suggerisce che la conversazione con il bot ha cambiato radicalmente la mente di alcune persone.

“Anche in laboratorio, il 20% è un effetto notevole sul cambiamento delle convinzioni delle persone”, afferma Zhang. “Nel mondo reale potrebbe essere più debole, ma anche il 10% o il 5% sarebbe comunque molto significativo”.

Gli autori hanno cercato di prevenire la tendenza dei modelli di intelligenza artificiale a inventare informazioni – nota come allucinazione – impiegando un verificatore professionista per valutare l’accuratezza di 128 affermazioni fatte dall’intelligenza artificiale. Di queste, il 99,2% è risultato vero, mentre lo 0,8% è stato considerato fuorviante. Nessuna è risultata completamente falsa.

Una spiegazione per questo alto grado di accuratezza è che su Internet si è scritto molto sulle teorie della cospirazione, rendendole così molto ben rappresentate nei dati di addestramento del modello, afferma David G. Rand, un professore del MIT Sloan che ha anche lavorato al progetto. La natura adattabile del GPT-4 Turbo significa che potrebbe essere facilmente collegato a diverse piattaforme con cui gli utenti potrebbero interagire in futuro, aggiunge.

“Si potrebbe immaginare di andare sui forum di cospirazione e invitare le persone a fare le loro ricerche discutendo con il chatbot”, dice. “Allo stesso modo, i social media potrebbero essere collegati agli LLM per pubblicare risposte correttive alle persone che condividono teorie cospirazioniste, o potremmo acquistare annunci di ricerca su Google contro termini di ricerca legati alle cospirazioni come ‘Deep State'”.

La ricerca ha sconvolto le idee preconcette degli autori sulla ricettività delle persone di fronte a prove solide che sfatano non solo le teorie del complotto, ma anche altre credenze non radicate in informazioni di qualità, afferma Gordon Pennycook, professore associato alla Cornell University che ha lavorato al progetto.

“Le persone sono state straordinariamente reattive alle prove. E questo è davvero importante”, afferma. “Le prove sono importanti”.