Skip to main content
Stephanie Arnett/MIT Technology Review | Getty

Secondo una nuova ricerca di Stanford e Google DeepMind, un’intervista di due ore è sufficiente per cogliere con precisione i vostri valori e le vostre preferenze.

Immaginate di sedervi con un modello di intelligenza artificiale per un’intervista orale di due ore. Una voce amichevole vi guida in una conversazione che spazia dalla vostra infanzia, ai vostri ricordi formativi, alla vostra carriera, fino ai vostri pensieri sulla politica di immigrazione. Non molto tempo dopo, una replica virtuale di voi è in grado di incarnare i vostri valori e le vostre preferenze con una precisione sorprendente.

Ora è possibile, secondo un nuovo lavoro di un team di ricercatori di Stanford e di Google DeepMind, pubblicato su arXiv e non è ancora stato sottoposto a revisione paritaria.

Guidato da Joon Sung Park, dottorando in informatica a Stanford, il team ha reclutato 1.000 persone che variavano per età, sesso, razza, regione, istruzione e ideologia politica. Per la loro partecipazione sono stati pagati fino a 100 dollari. Dalle interviste con loro, il team ha creato repliche di agenti di questi individui. Per verificare quanto gli agenti imitassero le loro controparti umane, i partecipanti hanno svolto una serie di test della personalità, indagini sociali e giochi di logica, due volte ciascuno, a distanza di due settimane; poi gli agenti hanno completato gli stessi esercizi. I risultati sono stati simili all’85%.

“Se si può avere un gruppo di piccoli ‘voi’ che vanno in giro a prendere le decisioni che avreste preso voi, credo che questo sia il futuro”, dice Joon.

Nel documento le repliche sono chiamate agenti di simulazione e lo scopo della loro creazione è quello di rendere più facile per i ricercatori delle scienze sociali e di altri settori condurre studi che sarebbero costosi, poco pratici o non etici da realizzare con soggetti umani reali. Se si riesce a creare modelli di intelligenza artificiale che si comportano come persone reali, si pensa di poterli utilizzare per testare qualsiasi cosa, dalla capacità degli interventi sui social media di combattere la disinformazione ai comportamenti che causano gli ingorghi stradali.

Questi agenti di simulazione sono leggermente diversi dagli agenti che oggi dominano il lavoro delle principali aziende di IA. Chiamati agenti basati su strumenti, sono modelli costruiti per fare cose al posto vostro, non per dialogare con voi. Ad esempio, possono inserire dati, recuperare informazioni memorizzate da qualche parte o, un giorno, prenotare viaggi e fissare appuntamenti. Salesforce ha annunciato i propri agenti basati su strumenti a settembre, seguita da Anthropic a ottobre, mentre OpenAI ha in programma di rilasciarne alcuni a gennaio, secondo Bloomberg.

I due tipi di agenti sono diversi ma hanno un terreno comune. Secondo John Horton, professore associato di tecnologie dell’informazione presso la Sloan School of Management del MIT, che ha fondato un’azienda per condurre ricerche con partecipanti simulati dall’intelligenza artificiale, la ricerca sugli agenti di simulazione, come quelli di questo articolo, porterà probabilmente ad agenti AI più forti in generale.

“Questo documento mostra come si possa fare una sorta di ibrido: usare esseri umani reali per generare personaggi che poi possono essere usati in modo programmatico/in simulazione in modi che non si potrebbero usare con esseri umani reali”, ha detto al MIT Technology Review in una e-mail.

La ricerca è accompagnata da avvertenze, non ultimo il pericolo che indica. Così come la tecnologia di generazione di immagini ha reso facile la creazione di deepfakes dannosi di persone senza il loro consenso, qualsiasi tecnologia di generazione di agenti solleva domande sulla facilità con cui le persone possono costruire strumenti per personificare altre persone online, dicendo o autorizzando cose che non avevano intenzione di dire.

Anche i metodi di valutazione utilizzati dal team per verificare la capacità degli agenti AI di replicare gli esseri umani corrispondenti erano piuttosto elementari. Tra questi, il General Social Survey – che raccoglie informazioni su dati demografici, felicità, comportamenti e altro – e le valutazioni dei tratti della personalità Big Five: apertura all’esperienza, coscienziosità, estroversione, gradevolezza e nevroticismo. Questi test sono comunemente utilizzati nella ricerca sulle scienze sociali, ma non pretendono di catturare tutti i dettagli unici che ci rendono noi stessi. Gli agenti dell’IA sono stati anche più bravi a replicare gli esseri umani in test comportamentali come il “gioco del dittatore”, che ha lo scopo di illuminare il modo in cui i partecipanti considerano valori come l’equità.

Per costruire un agente AI che riproduca bene le persone, i ricercatori avevano bisogno di un modo per distillare la nostra unicità in un linguaggio comprensibile ai modelli AI. Per farlo, hanno scelto le interviste qualitative, come spiega Joon. Joon dice di essersi convinto che le interviste sono il modo più efficace per conoscere qualcuno dopo essere apparso in innumerevoli podcast a seguito di un articolo del 2023 da lui scritto sugli agenti generativi, che ha suscitato un enorme interesse nel campo. “Partecipavo a un’intervista in podcast di forse due ore e, dopo l’intervista, mi sentivo come se, wow, le persone sapessero molto di me ora”, dice. “Due ore possono essere molto potenti”.

Queste interviste possono anche rivelare idiosincrasie che è meno probabile che emergano da un sondaggio. “Immaginate che qualcuno abbia avuto il cancro ma sia finalmente guarito l’anno scorso. Si tratta di un’informazione molto particolare, che dice molto su come ci si comporta e si pensa alle cose”, spiega. Sarebbe difficile creare domande di sondaggio che suscitino questo tipo di ricordi e di risposte.

Le interviste non sono però l’unica opzione. Le aziende che si offrono di creare “gemelli digitali” degli utenti, come Tavus, possono far sì che i loro modelli di intelligenza artificiale ingeriscano le e-mail dei clienti o altri dati. Hassaan Raza, CEO di Tavus, mi ha detto che in questo modo è necessario un set di dati piuttosto ampio per replicare la personalità di una persona, ma questo nuovo documento suggerisce un percorso più efficiente.

“L’aspetto davvero interessante è che hanno dimostrato che potrebbero non essere necessarie tutte queste informazioni”, afferma Raza, aggiungendo che la sua azienda sperimenterà l’approccio. “Che ne dite di parlare con un intervistatore AI per 30 minuti oggi e 30 minuti domani? E poi noi lo usiamo per costruire questo gemello digitale di voi”.