
Una conversazione con un chatbot può cambiare le opinioni politiche delle persone, ma i modelli più persuasivi diffondono anche la maggior parte delle informazioni errate.
Nel 2024, Shamaine Daniels, candidata democratica al Congresso in Pennsylvania, ha utilizzato un chatbot basato sull’intelligenza artificiale chiamato Ashley per chiamare gli elettori e conversare con loro. “Salve, mi chiamo Ashley e sono una volontaria di intelligenza artificiale per la campagna congressuale di Shamaine Daniels”, esordivano le telefonate. Alla fine Daniels non ha vinto, ma forse quelle telefonate hanno aiutato la sua causa: una nuova ricerca rivela che i chatbot basati sull’intelligenza artificiale possono cambiare le opinioni degli elettori in una sola conversazione e sono sorprendentemente bravi a farlo.
Un team di ricercatori provenienti da diverse università ha scoperto che chattare con un modello di intelligenza artificiale politicamente di parte era più efficace della pubblicità politica nel spingere sia i democratici che i repubblicani a sostenere i candidati presidenziali del partito avversario. I chatbot hanno influenzato le opinioni citando fatti e prove, ma non sempre erano accurati: infatti, i ricercatori hanno scoperto che i modelli più persuasivi dicevano le cose più false.
I risultati, descritti in dettaglio in una coppia di studi pubblicati sulle riviste Nature e Science, sono gli ultimi di una serie di ricerche emergenti che dimostrano il potere persuasivo degli LLM. Sollevano profonde domande su come l’intelligenza artificiale generativa potrebbe rimodellare le elezioni.
“Una conversazione con un LLM ha un effetto piuttosto significativo sulle scelte elettorali salienti”, afferma Gordon Pennycook, psicologo della Cornell University che ha lavorato allo studio pubblicato su Nature. Gli LLM possono persuadere le persone in modo più efficace rispetto alla pubblicità politica perché generano molte più informazioni in tempo reale e le utilizzano strategicamente nelle conversazioni, afferma.
Per l’articolo pubblicato su Nature, i ricercatori hanno reclutato più di 2.300 partecipanti per coinvolgerli in una conversazione con un chatbot due mesi prima delle elezioni presidenziali statunitensi del 2024. Il chatbot, che era stato addestrato a sostenere uno dei due candidati principali, era sorprendentemente persuasivo, soprattutto quando discuteva delle piattaforme politiche dei candidati su questioni quali l’economia e la sanità. I sostenitori di Donald Trump che hanno chattato con un modello di IA favorevole a Kamala Harris sono diventati leggermente più inclini a sostenere Harris, spostandosi di 3,9 punti verso di lei su una scala di 100 punti. Si tratta di circa quattro volte l’effetto misurato degli annunci politici durante le elezioni del 2016 e del 2020. Il modello di IA favorevole a Trump ha spostato i sostenitori di Harris di 2,3 punti verso Trump.
In esperimenti simili condotti durante la campagna elettorale per le elezioni federali canadesi del 2025 e le elezioni presidenziali polacche del 2025, il team ha riscontrato un effetto ancora maggiore. I chatbot hanno modificato l’atteggiamento degli elettori dell’opposizione di circa 10 punti.
Le teorie di lunga data sul ragionamento motivato politicamente sostengono che gli elettori di parte sono impermeabili ai fatti e alle prove che contraddicono le loro convinzioni. Ma i ricercatori hanno scoperto che i chatbot, che utilizzavano una serie di modelli tra cui varianti di GPT e DeepSeek, erano più persuasivi quando ricevevano l’istruzione di utilizzare fatti e prove rispetto a quando veniva loro detto di non farlo. “Le persone aggiornano le loro opinioni sulla base dei fatti e delle informazioni che il modello fornisce loro”, afferma Thomas Costello, psicologo dell’American University, che ha lavorato al progetto.
Il problema è che alcune delle “prove” e dei “fatti” presentati dai chatbot erano falsi. In tutti e tre i paesi, i chatbot che sostenevano i candidati di destra hanno fatto un numero maggiore di affermazioni inesatte rispetto a quelli che sostenevano i candidati di sinistra. I modelli sottostanti sono addestrati su grandi quantità di testi scritti da esseri umani, il che significa che riproducono fenomeni del mondo reale, compresa “la comunicazione politica che proviene dalla destra, che tende ad essere meno accurata”, secondo gli studi sui post di parte sui social media, afferma Costello.
Nell’altro studio pubblicato questa settimana su Science, un team di ricercatori ha indagato su ciò che rende questi chatbot così persuasivi. Hanno utilizzato 19 LLM per interagire con quasi 77.000 partecipanti dal Regno Unito su oltre 700 questioni politiche, variando fattori come la potenza di calcolo, le tecniche di addestramento e le strategie retoriche.
Il modo più efficace per rendere persuasivi i modelli è stato quello di istruirli a corredare le loro argomentazioni con fatti e prove e poi fornire loro una formazione aggiuntiva alimentandoli con esempi di conversazioni persuasive. Infatti, il modello più persuasivo ha spostato i partecipanti che inizialmente non erano d’accordo con una dichiarazione politica di 26,1 punti verso l’accordo. “Si tratta di effetti davvero notevoli”, afferma Kobi Hackenburg, ricercatore presso l’UK AI Security Institute, che ha lavorato al progetto.
Ma l’ottimizzazione della persuasività è avvenuta a scapito della veridicità. Quando i modelli sono diventati più persuasivi, hanno fornito sempre più informazioni fuorvianti o false, e nessuno sa bene perché. “Potrebbe essere che, man mano che i modelli imparano a utilizzare sempre più fatti, raggiungono essenzialmente il fondo del barile delle cose che conoscono, quindi i fatti diventano di qualità peggiore”, afferma Hackenburg.
Il potere persuasivo dei chatbot potrebbe avere profonde conseguenze per il futuro della democrazia, osservano gli autori. Le campagne politiche che utilizzano chatbot basati sull’intelligenza artificiale potrebbero influenzare l’opinione pubblica in modi che compromettono la capacità degli elettori di formulare giudizi politici indipendenti.
Tuttavia, i contorni esatti dell’impatto rimangono da vedere. “Non sappiamo con certezza come saranno le campagne future e come potrebbero incorporare questo tipo di tecnologie”, afferma Andy Guess, politologo dell’Università di Princeton. Competere per l’attenzione degli elettori è costoso e difficile, e convincerli a impegnarsi in lunghe conversazioni politiche con i chatbot potrebbe essere impegnativo. “Sarà questo il modo in cui le persone si informeranno sulla politica, o sarà piuttosto un’attività di nicchia?”, si chiede.
Anche se i chatbot dovessero diventare una parte più importante delle elezioni, non è chiaro se contribuiranno ad amplificare la verità o la finzione. Di solito, la disinformazione ha un vantaggio informativo in una campagna elettorale, quindi l’emergere di IA elettorali “potrebbe significare che ci stiamo dirigendo verso un disastro”, afferma Alex Coppock, politologo della Northwestern University. “Ma è anche possibile che ciò significhi che ora anche le informazioni corrette saranno scalabili”.
E allora la domanda è: chi avrà il sopravvento? “Se tutti avranno i propri chatbot in circolazione, significa che finiremo per persuaderci a vicenda fino a raggiungere un pareggio?”, si chiede Coppock dell’ . Ma ci sono motivi per dubitare di una situazione di stallo. L’accesso dei politici ai modelli più persuasivi potrebbe non essere distribuito in modo uniforme. E gli elettori di tutto lo spettro politico potrebbero avere diversi livelli di coinvolgimento con i chatbot. “Se i sostenitori di un candidato o di un partito sono più esperti di tecnologia rispetto agli altri”, l’impatto persuasivo potrebbe non essere equilibrato, afferma Guess.
Man mano che le persone si rivolgono all’IA per aiutarle a orientarsi nella vita, potrebbero anche iniziare a chiedere ai chatbot consigli di voto, indipendentemente dal fatto che le campagne elettorali stimolino l’interazione o meno. Questo potrebbe essere un mondo preoccupante per la democrazia, a meno che non ci siano forti barriere di protezione per tenere sotto controllo i sistemi. Verificare e documentare l’accuratezza dei risultati dei modelli LLM nelle conversazioni sulla politica potrebbe essere un primo passo.





