Skip to main content
Michael M. Santiago/Getty Images

Anche quando si scopre che un contenuto è stato manipolato, esso continua comunque a influenzare le nostre convinzioni. I difensori della verità sono irrimediabilmente in ritardo.

Cosa servirebbe per convincervi che l’era del declino della verità di cui siamo stati a lungo avvertiti, in cui i contenuti generati dall’intelligenza artificiale ci ingannano, influenzano le nostre convinzioni anche quando scopriamo la menzogna e minano la fiducia della società, è ormai arrivata? Un articolo che ho pubblicato la settimana scorsa mi ha fatto superare il limite. Mi ha anche fatto capire che gli strumenti che ci sono stati venduti come cura per questa crisi stanno fallendo miseramente.

Giovedì ho riportato la prima conferma che il Dipartimento della Sicurezza Interna degli Stati Uniti, che ospita le agenzie per l’immigrazione, sta utilizzando generatori di video basati sull’intelligenza artificiale di Google e Adobe per creare contenuti da condividere con il pubblico. La notizia arriva mentre le agenzie per l’immigrazione hanno inondato i social media di contenuti a sostegno del programma di deportazioni di massa del presidente Trump, alcuni dei quali sembrano essere stati realizzati con l’intelligenza artificiale (come un video sul “Natale dopo le deportazioni di massa”).

Ma ho ricevuto due tipi di reazioni dai lettori che potrebbero spiegare altrettanto bene la crisi epistemica in cui ci troviamo.

Una proveniva da persone che non erano sorprese, perché il 22 gennaio la Casa Bianca aveva pubblicato una foto modificata digitalmente di una donna arrestata durante una protesta contro l’ICE, che la faceva apparire isterica e in lacrime. Kaelan Dorr, vicedirettore della comunicazione della Casa Bianca, non ha risposto alle domande sul fatto che la Casa Bianca avesse modificato la foto, ma ha scritto: “I meme continueranno”.

La seconda era di lettori che non vedevano alcun motivo di segnalare che il DHS stava utilizzando l’intelligenza artificiale per modificare i contenuti condivisi con il pubblico, perché apparentemente anche i media stavano facendo lo stesso. Hanno sottolineato il fatto che la rete televisiva MS Now (ex MSNBC) ha condiviso un’immagine di Alex Pretti modificata con l’intelligenza artificiale che lo faceva apparire più bello, un fatto che ha portato a molti clip virali questa settimana, tra cui uno dal podcast di Joe Rogan. In altre parole, combattere il fuoco con il fuoco? Un portavoce di MS Now ha detto a Snopes che l’agenzia di stampa ha mandato in onda l’immagine senza sapere che fosse stata modificata.

Non c’è motivo di raggruppare questi due casi di contenuti alterati nella stessa categoria, né di interpretarli come prova che la verità non ha più importanza. Uno riguardava il governo degli Stati Uniti che ha condiviso con il pubblico una foto chiaramente alterata e si è rifiutato di rispondere se fosse stata manipolata intenzionalmente; l’altro riguardava un’agenzia di stampa che ha mandato in onda una foto che avrebbe dovuto sapere essere alterata, ma che ha preso alcune misure per rivelare l’errore.

Ciò che queste reazioni rivelano invece è una lacuna nel modo in cui ci stavamo preparando collettivamente a questo momento. Gli avvertimenti sulla crisi della verità nell’ambito dell’intelligenza artificiale ruotavano attorno a una tesi fondamentale: l’incapacità di distinguere ciò che è reale ci distruggerà, quindi abbiamo bisogno di strumenti per verificare in modo indipendente la verità. Le mie due tristi conclusioni sono che questi strumenti stanno fallendo e che, sebbene la verifica dell’ e la verità rimanga essenziale, da sola non è più in grado di produrre la fiducia sociale che ci era stata promessa.

Ad esempio, nel 2024 c’è stato molto clamore intorno alla Content Authenticity Initiative, co-fondata da Adobe e adottata dalle principali aziende tecnologiche, che avrebbe allegato alle informazioni delle etichette indicanti quando erano state create, da chi e se fosse stata coinvolta l’intelligenza artificiale. Ma Adobe applica etichette automatiche solo quando le informazioni sono interamente generate dall’intelligenza artificiale. Altrimenti le etichette sono facoltative da parte del creatore.

E piattaforme come X, dove è stata pubblicata la foto dell’arresto alterata, possono comunque rimuovere tali etichette dai contenuti (una nota che indicava che la foto era stata alterata è stata aggiunta dagli utenti). Le piattaforme possono anche semplicemente scegliere di non mostrare l’etichetta; infatti, quando Adobe ha lanciato l’iniziativa, ha sottolineato che il sito web del Pentagono per la condivisione di immagini ufficiali, DVIDS, avrebbe visualizzato le etichette per provarne l’autenticità, ma una revisione del sito web oggi non mostra tali etichette.

Notando quanta attenzione ha suscitato la foto della Casa Bianca anche dopo che è stato dimostrato che era stata alterata dall’intelligenza artificiale, sono rimasto colpito dai risultati di un nuovo articolo molto pertinente pubblicato sulla rivista Communications Psychology. Nello studio, i partecipanti hanno guardato una “confessione” deepfake di un crimine e i ricercatori hanno scoperto che, anche quando veniva loro detto esplicitamente che le prove erano false, i partecipanti si basavano su di esse per giudicare la colpevolezza di un individuo. In altre parole, anche quando le persone vengono a sapere che il contenuto che stanno guardando è completamente falso, continuano a esserne influenzate emotivamente.

“La trasparenza aiuta, ma da sola non basta”, ha scritto recentemente l’esperto di disinformazione Christopher Nehring a proposito dei risultati dello studio. “Dobbiamo sviluppare un nuovo piano generale su cosa fare con i deepfake”.

Gli strumenti di intelligenza artificiale per generare e modificare contenuti stanno diventando più avanzati, più facili da usare e più economici da gestire: tutti motivi per cui il governo degli Stati Uniti sta investendo sempre di più nel loro utilizzo. Eravamo stati avvertiti, ma abbiamo reagito preparandoci a un mondo in cui il pericolo principale era la confusione. Quello in cui stiamo entrando, invece, è un mondo in cui l’influenza sopravvive all’esposizione, il dubbio è facilmente strumentalizzabile e stabilire la verità non serve a resettare la situazione. E i difensori della verità sono già molto indietro.