Skip to main content
Stephanie Arnett/MIT Technology Review | Adobe Stock

I gruppi che utilizzano le LLM di Google DeepMind hanno fatto più progressi nella discussione di questioni controverse. Ma la tecnologia non sostituirà presto i mediatori umani.

Raggiungere un consenso in democrazia è difficile perché le persone hanno opinioni ideologiche, politiche e sociali così diverse.

Forse uno strumento di intelligenza artificiale potrebbe aiutare. I ricercatori di Google DeepMind hanno addestrato un sistema di modelli linguistici di grandi dimensioni (LLM) a operare come “mediatore di caucus”, generando sintesi che delineano le aree di accordo di un gruppo su questioni sociali o politiche complesse ma importanti.

Secondo i ricercatori, lo strumento – chiamato Habermas Machine (HM), dal nome del filosofo tedesco Jürgen Habermas – evidenzia il potenziale dell’intelligenza artificiale nell’aiutare i gruppi di persone a trovare un terreno comune quando discutono di tali argomenti.

“Il modello linguistico di grandi dimensioni è stato addestrato per identificare e presentare le aree di sovrapposizione tra le idee dei membri del gruppo”, spiega Michael Henry Tessler, ricercatore presso Google DeepMind. “Non è stato addestrato per essere persuasivo, ma per agire da mediatore”. Lo studio è stato pubblicato oggi sulla rivista Science.

Google DeepMind ha reclutato 5.734 partecipanti, alcuni attraverso una piattaforma di ricerca in crowdsourcing e altri attraverso la Sortition Foundation, un’organizzazione no-profit che organizza assemblee di cittadini. I gruppi di Sortition costituivano un campione demograficamente rappresentativo della popolazione del Regno Unito.

L’HM è costituito da due diversi LLM messi a punto per questo compito. Il primo è un modello generativo, che suggerisce affermazioni che riflettono le diverse opinioni del gruppo. Il secondo è un modello di ricompensa personalizzata, che assegna un punteggio alle affermazioni proposte in base a quanto pensa che ogni partecipante sarà d’accordo con esse.

I ricercatori hanno diviso i partecipanti in gruppi e hanno testato l’HM in due fasi: prima verificando se fosse in grado di riassumere accuratamente le opinioni collettive e poi controllando se fosse anche in grado di mediare tra gruppi diversi e aiutarli a trovare un terreno comune.

Per iniziare, sono state poste domande come “Dovremmo abbassare l’età per votare a 16 anni?” o “Il servizio sanitario nazionale dovrebbe essere privatizzato?”. I partecipanti hanno inviato le risposte all’HM prima di discutere le loro opinioni in gruppi di circa cinque persone.

L’HM ha sintetizzato le opinioni del gruppo; poi queste sintesi sono state inviate ai singoli per essere criticate. Alla fine l’HM ha prodotto una serie finale di affermazioni e i partecipanti le hanno classificate.

I ricercatori hanno quindi cercato di verificare se l’HM potesse fungere da utile strumento di mediazione dell’IA.

I partecipanti sono stati divisi in gruppi di sei persone, con un partecipante in ciascuno dei quali è stato assegnato a caso a scrivere dichiarazioni per conto del gruppo. Questa persona è stata designata come “mediatore”. In ogni turno di deliberazione, ai partecipanti è stata presentata una dichiarazione del mediatore umano e una dichiarazione generata dall’intelligenza artificiale dell’HM, chiedendo loro quale preferissero.

Più della metà (56%) delle volte, i partecipanti hanno scelto la dichiarazione dell’IA. I partecipanti hanno ritenuto che queste dichiarazioni fossero di qualità superiore rispetto a quelle prodotte dal mediatore umano e tendevano ad approvarle con maggiore convinzione. Dopo aver deliberato con l’aiuto del mediatore IA, i piccoli gruppi di partecipanti erano meno divisi nelle loro posizioni sulle questioni.

Sebbene la ricerca dimostri che i sistemi di IA sono bravi a generare sintesi che riflettono le opinioni del gruppo, è importante essere consapevoli che la loro utilità ha dei limiti, afferma Joongi Shin, ricercatore dell’Università di Aalto che studia l’IA generativa.

“A meno che la situazione o il contesto non siano chiaramente aperti, in modo da poter vedere le informazioni immesse nel sistema e non solo le sintesi che esso produce, penso che questo tipo di sistemi possa causare problemi etici”, afferma.

Google DeepMind non ha detto esplicitamente ai partecipanti all’esperimento di mediazione umana che un sistema di intelligenza artificiale avrebbe generato le dichiarazioni di opinione del gruppo, sebbene abbia indicato nel modulo di consenso che gli algoritmi sarebbero stati coinvolti.

“È anche importante riconoscere che il modello, nella sua forma attuale, è limitato nella sua capacità di gestire alcuni aspetti della deliberazione del mondo reale”, afferma Tessler. “Per esempio, non ha la capacità di mediazione di controllare i fatti, di rimanere in tema o di moderare il discorso”.

Per capire dove e come questo tipo di tecnologia potrebbe essere utilizzata in futuro, sarebbero necessarie ulteriori ricerche per garantire un impiego responsabile e sicuro. L’azienda dichiara di non avere intenzione di lanciare pubblicamente il modello.