Skip to main content
STEPHANIE ARNETT/MIT TECHNOLOGY REVIEW | GETTY

OpenAI ha riferito sulle operazioni di influenza che utilizzano i suoi strumenti di IA. Tali rapporti, insieme alla condivisione dei dati, dovrebbero diventare la norma del settore.

Di Josh A. Goldstein e Renée DiResta

Alla fine di maggio, OpenAI ha segnato una nuova “prima” nella sua storia aziendale. Non si trattava di un modello linguistico ancora più potente o di una nuova partnership per i dati, ma di un rapporto che rivelava l’uso improprio dei suoi prodotti da parte di malintenzionati per condurre operazioni di influenza. L’azienda aveva individuato cinque reti di propagandisti occulti – tra cui attori di Russia, Cina, Iran e Israele – che utilizzavano i loro strumenti di IA generativa per tattiche ingannevoli che andavano dalla creazione di grandi volumi di commenti sui social media in più lingue alla trasformazione di articoli di notizie in post su Facebook. L’uso di questi strumenti, ha osservato OpenAI, sembra destinato a migliorare la qualità e la quantità della produzione. L’IA dà anche ai propagandisti un aumento di produttività.

Innanzitutto, OpenAI va lodata per questo rapporto e per il precedente che si spera abbia creato. Da tempo i ricercatori si aspettano che gli attori avversari adottino la tecnologia dell’intelligenza artificiale generativa, in particolare i modelli linguistici di grandi dimensioni, per aumentare a basso costo la portata e il calibro dei loro sforzi. La rivelazione trasparente che ciò ha iniziato a verificarsi – e che OpenAI ha dato priorità al rilevamento e alla chiusura degli account per mitigarne l’impatto – dimostra che almeno una grande azienda di AI ha imparato qualcosa dalle difficoltà delle piattaforme di social media negli anni successivi all’interferenza della Russia nelle elezioni statunitensi del 2016. Quando è stato scoperto l’uso improprio, Facebook, YouTube e Twitter (ora X) hanno creato dei team di integrità e hanno iniziato a divulgare regolarmente le operazioni di influenza sulle loro piattaforme. (X ha interrotto questa attività dopo l’acquisto della società da parte di Elon Musk).

La rivelazione di OpenAI, infatti, era evocativa proprio di un simile rapporto di Meta, pubblicato appena un giorno prima. Il rapporto di trasparenza di Meta per il primo trimestre del 2024 ha rivelato l’eliminazione di sei operazioni segrete sulla sua piattaforma. Anch’esso ha individuato reti legate a Cina, Iran e Israele e ha rilevato l’uso di contenuti generati dall’intelligenza artificiale. I propagandisti cinesi hanno condiviso quelle che sembrano essere immagini di tipo manifesto generate dall’intelligenza artificiale per un “movimento attivista pro-Sikh fittizio”. Una società di marketing politico con sede in Israele ha pubblicato commenti probabilmente generati dall’intelligenza artificiale. Il rapporto di Meta ha anche rilevato che un attore di minacce russo molto persistente era ancora piuttosto attivo e che le sue strategie si stavano evolvendo. Forse la cosa più importante è che Meta ha incluso una serie di “raccomandazioni per una risposta più incisiva da parte del settore” che invita governi, ricercatori e altre aziende tecnologiche a condividere in modo collaborativo le informazioni sulle minacce per contribuire a interrompere la campagna russa in corso.

Noi siamo due di questi ricercatori e da anni studiamo le operazioni di influenza online. Abbiamo pubblicato indagini sulle attività coordinate, a volte in collaborazione con le piattaforme, e abbiamo analizzato come gli strumenti di intelligenza artificiale potrebbero influenzare il modo in cui vengono condotte le campagne di propaganda. Le ricerche dei nostri team, sottoposte a revisione paritaria, hanno scoperto che i modelli linguistici possono produrre testi persuasivi quasi quanto la propaganda delle campagne scritte da esseri umani. Abbiamo visto che le operazioni di influenza continuano a proliferare, su tutte le piattaforme sociali e in tutte le regioni del mondo; a questo punto sono la posta in palio nel gioco della propaganda. Gli avversari statali e le società di pubbliche relazioni mercenarie sono attratti dalle piattaforme dei social media e dalla portata che offrono. Per i regimi autoritari, in particolare, non ci sono molti svantaggi nel condurre una campagna di questo tipo, soprattutto in un anno critico per le elezioni globali. E ora gli avversari stanno dimostrando di utilizzare tecnologie di intelligenza artificiale che potrebbero rendere questa attività più difficile da individuare. I media scrivono di “elezioni dell’IA” e molte autorità di regolamentazione sono in preda al panico.

È importante, però, mettere tutto questo in prospettiva. La maggior parte delle campagne di influenza annunciate da OpenAI e Meta non hanno avuto un grande impatto, come le aziende hanno tenuto a sottolineare. È fondamentale ribadire che l’impegno non è la stessa cosa del coinvolgimento: la semplice esistenza di account o pagine false non significa che le persone reali vi prestino attenzione. Allo stesso modo, il fatto che una campagna utilizzi l’IA non significa che influenzerà l’opinione pubblica. L’intelligenza artificiale generativa riduce i costi di gestione delle campagne di propaganda, rendendo molto più economico produrre contenuti e gestire account interattivi automatizzati. Ma non è una pallottola magica e, nel caso delle operazioni divulgate da OpenAI, ciò che è stato generato è sembrato a volte piuttosto spammoso. Il pubblico non ha abboccato.

La produzione di contenuti, dopo tutto, è solo il primo passo di una campagna di propaganda; anche i post, le immagini o gli audio più convincenti generati dall’intelligenza artificiale devono ancora essere distribuiti. Le campagne che non prevedono l’amplificazione algoritmica o la selezione di influencer spesso si limitano a twittare nel vuoto. In effetti, sono proprio gli influencer autentici – persone che godono dell’attenzione di un vasto pubblico che condivide con entusiasmo i loro post – a ricevere l’engagement e a guidare la conversazione pubblica, aiutando i contenuti e le narrazioni a diventare virali. Ecco perché alcuni degli avversari più dotati di risorse, come la Cina, si limitano ad assumere surrettiziamente queste voci. A questo punto, gli account reali influenti hanno un potenziale di impatto molto maggiore rispetto ai falsi alimentati dall’intelligenza artificiale.

Ciononostante, si teme che l’intelligenza artificiale possa sconvolgere la politica americana e diventare una minaccia per la sicurezza nazionale. È importante “ridimensionare” questa minaccia, soprattutto in un anno elettorale. Ipotizzare l’impatto delle campagne di disinformazione può minare la fiducia nelle elezioni e nella democrazia, facendo credere all’elettorato che dietro a ogni post ci siano dei troll o che il solo fatto di aver preso di mira un candidato da parte di un attore maligno, anche con una campagna molto poco efficace, ne abbia “causato” la sconfitta.

Ponendo una valutazione dell’impatto in primo piano nel suo primo rapporto, OpenAI sta chiaramente prendendo sul serio il rischio di esagerare la minaccia. Tuttavia, anche sminuire la minaccia o non mettere in campo squadre di integrità, lasciando che i troll continuino semplicemente a far crescere i loro seguaci e a migliorare la loro capacità di distribuzione, sarebbe un approccio sbagliato. In effetti, il rapporto di Meta ha rilevato che una rete interrotta, apparentemente collegata a un partito politico del Bangladesh e rivolta al pubblico bangladese, aveva accumulato 3,4 milioni di follower su 98 pagine. Poiché questa rete non era gestita da un avversario di interesse per gli americani, probabilmente non riceverà molta attenzione. Tuttavia, questo esempio evidenzia il fatto che la minaccia è globale e la vigilanza è fondamentale. Le piattaforme devono continuare a dare priorità al rilevamento delle minacce.

Che cosa dobbiamo fare? L’appello del rapporto Meta alla condivisione delle minacce e alla collaborazione, sebbene specifico per un avversario russo, evidenzia un percorso più ampio per le piattaforme di social media, le aziende di IA e i ricercatori accademici.

La trasparenza è fondamentale. In qualità di ricercatori esterni, possiamo imparare solo una parte della descrizione che un’azienda di social media fa di un’operazione che ha eliminato. Questo vale anche per il pubblico e i politici, e le piattaforme incredibilmente potenti non dovrebbero essere prese in parola. Garantire ai ricercatori l’accesso ai dati sulle reti coordinate non autentiche offre l’opportunità di convalidare (o confutare!) le affermazioni di un’azienda tecnologica. Prima dell’acquisizione di Twitter da parte di Musk, l’azienda rilasciava regolarmente ai ricercatori, e persino al pubblico, serie di dati sui post degli account fake collegati allo Stato. Meta ha condiviso i dati con partner esterni prima di rimuovere una rete e, più recentemente, è passata a un modello di condivisione dei contenuti delle reti già rimosse attraverso l’Influence Operations Research Archive di Meta. Sebbene i ricercatori debbano continuare a insistere per ottenere più dati, questi sforzi hanno permesso una comprensione più ricca delle narrazioni e dei comportamenti avversari, al di là di quanto fornito dalle sintesi dei rapporti di trasparenza della piattaforma stessa.

Il rapporto sulle minacce avversarie di OpenAI dovrebbe essere un preludio a una più solida condivisione dei dati in futuro. Per quanto riguarda l’IA, ricercatori indipendenti hanno iniziato a riunire database di abusi, come l’AI Incident Database e il Political Deepfakes Incident Database, per consentire ai ricercatori di confrontare diversi tipi di abusi e di seguire l’evoluzione degli abusi nel tempo. Ma spesso è difficile individuare gli abusi dall’esterno. Man mano che gli strumenti di IA diventano sempre più capaci e pervasivi, è importante che i responsabili politici che stanno valutando la regolamentazione capiscano come vengono usati e abusati. Mentre il primo rapporto di OpenAI offriva sintesi di alto livello ed esempi selezionati, l’espansione dei rapporti di condivisione dei dati con i ricercatori che forniscono maggiore visibilità sui contenuti o sui comportamenti avversari è un importante passo successivo.

Quando si tratta di combattere le operazioni di influenza e l’uso improprio dell’IA, anche gli utenti online hanno un ruolo da svolgere. Dopo tutto, questi contenuti hanno un impatto solo se le persone li vedono, ci credono e partecipano alla loro condivisione. In uno dei casi divulgati da OpenAI, gli utenti online hanno denunciato account falsi che utilizzavano testi generati dall’IA.

Nella nostra ricerca, abbiamo visto comunità di utenti di Facebook che hanno segnalato in modo proattivo i contenuti di immagine generati dall’intelligenza artificiale e creati da spammer e truffatori, aiutando coloro che sono meno consapevoli della tecnologia a non cadere nell’inganno. Una sana dose di scetticismo è sempre più utile: soffermarsi a verificare se i contenuti sono reali e se le persone sono quelle che dichiarano di essere, e aiutare amici e familiari a diventare più consapevoli della crescente diffusione dei contenuti generati, può aiutare gli utenti dei social media a resistere agli inganni di propagandisti e truffatori.

Il post sul blog di OpenAI che annuncia il rapporto sul takedown è sintetico: “Gli attori delle minacce lavorano attraverso Internet”. Anche noi dobbiamo farlo. Mentre ci muoviamo in una nuova era di operazioni di influenza guidate dall’IA, dobbiamo affrontare le sfide comuni attraverso la trasparenza, la condivisione dei dati e la vigilanza collaborativa se vogliamo sviluppare un ecosistema digitale più resistente.

Josh A. Goldstein è ricercatore presso il Center for Security and Emerging Technology (CSET) della Georgetown University, dove lavora al CyberAI Project. Renée DiResta è responsabile della ricerca dello Stanford Internet Observatory e autrice di Invisible Rulers: The People Who Turn Lies into Reality.