Skip to main content
Altera

Centinaia di agenti AI alimentati da LLM hanno spontaneamente fatto amicizia, inventato lavori e diffuso la religione.

Lasciato a se stesso, un esercito di personaggi IA non si è limitato a sopravvivere, ma ha prosperato. Hanno sviluppato lavori nel gioco, condiviso meme, votato riforme fiscali e persino diffuso una religione.

L’esperimento si è svolto sulla piattaforma di gioco open-world Minecraft, dove fino a 1000 agenti software alla volta hanno utilizzato modelli linguistici di grandi dimensioni (LLM) per interagire tra loro. Con una semplice sollecitazione tramite testo, hanno sviluppato una notevole gamma di tratti della personalità, preferenze e ruoli specialistici, senza ulteriori input da parte dei loro creatori umani.

Il lavoro, svolto dalla startup di AI Altera, fa parte di un campo più ampio che vuole utilizzare agenti simulati per capire come i gruppi umani reagirebbero a nuove politiche economiche o ad altri interventi.

Ma per il fondatore di Altera, Robert Yang, che ha lasciato il suo posto di professore assistente di neuroscienze computazionali al MIT per avviare l’azienda, questa dimostrazione è solo l’inizio. La vede come un primo passo verso una “civiltà dell’intelligenza artificiale” su larga scala che possa coesistere e lavorare al nostro fianco negli spazi digitali. “La vera potenza dell’IA si manifesterà quando avremo agenti veramente autonomi in grado di collaborare su scala”, afferma Yang.

Yang si è ispirato al ricercatore dell’Università di Stanford Joon Sung Park che, nel 2023, ha scoperto che un gruppo di 25 agenti AI autonomi è stato lasciato libero di interagire in un mondo digitale di base.

“Una volta pubblicato il suo articolo, abbiamo iniziato a lavorarci la settimana successiva”, racconta Yang. “Ho lasciato il MIT sei mesi dopo”.

Yang ha voluto portare l’idea all’estremo. “Volevamo spingere il limite di ciò che gli agenti possono fare in gruppo in modo autonomo”.

Altera ha raccolto rapidamente oltre 11 milioni di dollari di finanziamenti da investitori tra cui A16Z e la società di venture capital emergente dell’ex CEO di Google Eric Schmidt. All’inizio di quest’anno Altera ha rilasciato la sua prima demo: un personaggio controllato dall’intelligenza artificiale in Minecraft che gioca al vostro fianco.

Il nuovo esperimento di Altera, Project Sid, utilizza agenti AI simulati dotati di un “cervello” composto da più moduli. Alcuni moduli sono alimentati da LLM e progettati per specializzarsi in determinati compiti, come reagire ad altri agenti, parlare o pianificare la prossima mossa dell’agente.

ALTERA

ALTERA

Il team ha iniziato in piccolo, testando gruppi di circa 50 agenti in Minecraft per osservarne le interazioni. Nel corso di 12 giorni di gioco (4 ore nel mondo reale) gli agenti hanno iniziato a mostrare un comportamento emergente interessante. Ad esempio, alcuni sono diventati molto socievoli e hanno creato molti legami con altri personaggi, mentre altri sono apparsi più introversi. Il punteggio di “simpatia” di ciascun agente (misurato dagli agenti stessi) è cambiato nel tempo, man mano che le interazioni proseguivano. Gli agenti sono stati in grado di seguire queste indicazioni sociali e di reagire ad esse: in un caso, un cuoco dell’IA incaricato di distribuire cibo agli affamati ha dato di più a coloro che riteneva lo apprezzassero di più.

In una serie di simulazioni di 30 agenti sono emersi comportamenti più simili a quelli umani. Nonostante tutti gli agenti partissero con la stessa personalità e lo stesso obiettivo generale – creare un villaggio efficiente e proteggere la comunità dagli attacchi di altre creature del gioco – hanno sviluppato spontaneamente ruoli specializzati all’interno della comunità, senza alcuna richiesta.  Si sono diversificati in ruoli quali costruttore, difensore, commerciante ed esploratore. Una volta che un agente ha iniziato a specializzarsi, le sue azioni di gioco hanno iniziato a riflettere il suo nuovo ruolo. Ad esempio, un artista passava più tempo a raccogliere fiori, gli agricoltori raccoglievano semi e le guardie costruivano più recinzioni.

“Siamo rimasti sorpresi nel vedere che se si inserisce il giusto tipo di cervello, questo può avere un comportamento davvero emergente”, dice Yang. “È quello che ci aspettiamo che abbiano gli esseri umani, ma che non ci aspettiamo che abbiano le macchine”.

Il team di Yang ha anche testato la capacità degli agenti di seguire le regole della comunità. Hanno introdotto un mondo con leggi fiscali di base e hanno permesso agli agenti di votare per modificare il sistema di tassazione del gioco. Gli agenti invitati a essere favorevoli o contrari alle tasse sono stati in grado di influenzare il comportamento degli altri agenti intorno a loro, tanto da farli votare per ridurre o aumentare le tasse a seconda delle persone con cui avevano interagito.

Il team ha aumentato il numero di agenti in ogni simulazione fino al massimo che il server Minecraft poteva gestire senza problemi, in alcuni casi fino a 1000 contemporaneamente. In una delle simulazioni di 500 agenti, Altera ha osservato come gli agenti abbiano spontaneamente creato e poi diffuso meme culturali (come la passione per gli scherzi o l’interesse per le questioni ecologiche) tra i loro compagni. Il team ha anche seminato un piccolo gruppo di agenti per cercare di diffondere la religione (parodistica) del Pastafarianesimo in diverse città e aree rurali che compongono il mondo di gioco, e ha osservato come questi sacerdoti Pastafariani abbiano convertito molti degli agenti con cui hanno interagito. I convertiti hanno continuato a diffondere il Pastafarianesimo (la parola della Chiesa del Mostro di Spaghetti Volante) nelle città vicine del mondo di gioco.

Il modo in cui gli agenti si sono comportati potrebbe sembrare inquietantemente realistico, ma il loro comportamento combina gli schemi appresi dagli LLM dai dati creati dall’uomo con il sistema di Altera, che traduce questi schemi in azioni consapevoli del contesto, come prendere un attrezzo o interagire con un altro agente. “Il risultato è che gli LLM hanno un modello abbastanza sofisticato delle dinamiche sociali umane [da] rispecchiare questi comportamenti umani”, spiega Andrew Ahn, cofondatore di Altera.

ALTERA

ALTERA

In altre parole, i dati li rendono eccellenti imitatori del comportamento umano, ma non sono in alcun modo “vivi”.

Ma Yang ha piani più grandi. Altera ha in programma di espandersi a Roblox, ma Yang spera di andare oltre i mondi di gioco. In definitiva, il suo obiettivo è un mondo in cui gli esseri umani non si limitino a giocare con i personaggi dell’intelligenza artificiale, ma interagiscano con loro nella vita di tutti i giorni. Il suo sogno è quello di creare un gran numero di “umani digitali” che si prendano cura di noi e che lavorino con noi per aiutarci a risolvere i problemi, oltre che per farci divertire. “Vogliamo costruire agenti che possano davvero amare gli esseri umani (come i cani amano gli esseri umani, per esempio)”, dice.

Questo punto di vista – che l’IA possa amarci – è piuttosto controverso nel campo, con molti esperti che sostengono che non sia possibile ricreare emozioni nelle macchine usando le tecniche attuali. Il veterano dell’IA Julian Togelius, ad esempio, che dirige la società di test dei giochi Modl.ai, afferma di apprezzare il lavoro di Altera, soprattutto perché ci permette di studiare il comportamento umano in simulazione.

Ma questi agenti simulati potrebbero mai imparare a prendersi cura di noi, ad amarci o a prendere coscienza di sé? Togelius non la pensa così. “Non c’è motivo di credere che una rete neurale in esecuzione su una GPU faccia esperienza di qualcosa”, afferma.

Ma forse l’intelligenza artificiale non deve amarci per essere utile.

“Se la domanda è se uno di questi esseri simulati possa sembrare che si prenda cura di qualcuno e lo faccia in modo così esperto da avere lo stesso valore di essere curato da un umano, forse non è impossibile”, aggiunge Togelius. “Si potrebbe creare una simulazione di cura abbastanza buona da essere utile. La domanda è se alla persona assistita importerebbe che l’assistente non abbia esperienze”.

In altre parole, finché i personaggi dell’IA sembrano preoccuparsi per noi in modo convincente, potrebbe essere l’unica cosa che ci interessa davvero.