L’intelligenza artificiale potrebbe presto non solo imitare la nostra personalità, ma anche agire per nostro conto. Ci sono alcune cose che dobbiamo risolvere prima di allora.
I modelli di intelligenza artificiale generativa sono diventati straordinariamente bravi a conversare con noi e a creare immagini, video e musica per noi, ma non sono altrettanto bravi a fare cose per noi.
Gli agenti di intelligenza artificiale promettono di cambiare le cose. Si tratta di modelli di intelligenza artificiale con uno script e uno scopo. Tendono a essere di due tipi.
I primi, chiamati agenti basati su strumenti, possono essere istruiti utilizzando il linguaggio umano naturale (piuttosto che la codifica) per completare compiti digitali per noi. Anthropic ha rilasciato in ottobre un agente di questo tipo, il primo di un importante produttore di modelli di intelligenza artificiale, in grado di tradurre istruzioni (“Compila questo modulo per me”) in azioni sul computer di una persona, spostando il cursore per aprire un browser web, navigando per trovare dati su pagine pertinenti e compilando un modulo utilizzando tali dati. Anche Salesforce ha rilasciato un proprio agente e, secondo quanto riferito, OpenAI ha in programma di rilasciarne uno a gennaio.
L’altro tipo di agente è chiamato agente di simulazione e può essere considerato come un modello di intelligenza artificiale progettato per comportarsi come un essere umano. I primi a lavorare alla creazione di questi agenti sono stati i ricercatori di scienze sociali. Volevano condurre studi che sarebbe stati costosi, impraticabili o non etici fare con soggetti umani reali, quindi hanno usato l’IA per simulare i soggetti. Questa tendenza si è particolarmente accentuata con la pubblicazione di un articolo spesso citato del 2023 di Joon Sung Park, dottorando a Stanford, e colleghi, intitolato “Generative Agents: Interactive Simulacra of Human Behavior”.
La scorsa settimana Park e il suo team hanno pubblicato su arXiv un nuovo documento intitolato “Generative Agent Simulations of 1,000 People”. In questo lavoro, i ricercatori hanno fatto partecipare 1.000 persone a interviste di due ore con un’intelligenza artificiale. Poco dopo, il team è stato in grado di creare agenti di simulazione che hanno replicato i valori e le preferenze di ciascun partecipante con una precisione sorprendente.
Ci sono due sviluppi davvero importanti. In primo luogo, è chiaro che le aziende leader nel settore dell’IA pensano che non sia più sufficiente costruire strumenti di IA generativa abbaglianti; ora devono costruire agenti in grado di compiere azioni per le persone. In secondo luogo, è sempre più facile far sì che questi agenti di IA imitino i comportamenti, gli atteggiamenti e le personalità delle persone reali. Quelli che una volta erano due tipi distinti di agenti – agenti di simulazione e agenti basati su strumenti – potrebbero presto diventare una cosa sola: modelli di IA in grado non solo di imitare la vostra personalità, ma anche di agire per vostro conto.
La ricerca su questo tema è in corso. Aziende come Tavus stanno lavorando sodo per aiutare gli utenti a creare “gemelli digitali” di se stessi. Ma l’amministratore delegato dell’azienda, Hassaan Raza, pensa di andare oltre, creando agenti AI che possano assumere la forma di terapisti, medici e insegnanti.
Se questi strumenti diventeranno economici e facili da costruire, solleveranno molte nuove preoccupazioni etiche, ma due in particolare spiccano. La prima è che questi agenti potrebbero creare deepfakes ancora più personali e dannosi. Gli strumenti di generazione di immagini hanno già reso semplice la creazione di pornografia non consensuale utilizzando una singola immagine di una persona, ma questa crisi si aggraverà solo se sarà facile replicare anche la voce, le preferenze e la personalità di qualcuno. (Park mi ha detto che lui e il suo team hanno trascorso più di un anno a lottare con questioni etiche come questa nel loro ultimo progetto di ricerca, impegnandosi in molte conversazioni con il comitato etico di Stanford e redigendo politiche su come i partecipanti potessero ritirare i loro dati e contributi).
La seconda è la questione fondamentale se abbiamo il diritto di sapere se stiamo parlando con un agente o con un umano. Se completate un’intervista con un’intelligenza artificiale e inviate campioni della vostra voce per creare un agente che suoni e risponda come voi, i vostri amici o colleghi hanno il diritto di sapere se stanno parlando con lei e non con voi? D’altro canto, se telefonate al vostro gestore di telefonia mobile o allo studio medico e vi risponde un allegro agente del servizio clienti, avete il diritto di sapere se state parlando con un’IA?
Questo futuro sembra molto lontano, ma non lo è. È possibile che, quando ci arriveremo, le domande etiche da porre saranno ancora più pressanti e pertinenti. Nel frattempo, leggete qui il mio articolo sugli agenti di intelligenza artificiale e riflettete su quanto pensate che un intervistatore di intelligenza artificiale possa conoscervi in due ore.