Skip to main content

Con l’avvicinarsi delle elezioni, i legislatori americani stanno elaborando un piano d’azione su più fronti per contrastare il fenomeno sempre più esteso della manipolazione mediale.

di Karen Hao

La recente diffusione virale di un video manipolato riguardante Nancy Pelosi ha spaventato i legislatori a Washington. Il montaggio video per farla sembrare ubriaca è solo uno dei tanti esempi dell’ultimo anno di falsi in rete che hanno posto questo tema al centro dell’attenzione politica. A gennaio, un altro video manipolato sul presidente Donald Trump è andato in onda su una rete televisiva di Seattle. Pochi giorni fa, su Instagram è apparso un video generato da IA di Mark Zuckerberg.

Con le elezioni statunitensi del 2020 ormai incombenti, il Congresso degli Stati Uniti si preoccupa sempre più che la facilità di produzione di materiale mediatico manipolato renda la campagna elettorale vulnerabile agli attacchi di agenti stranieri, falsando il voto degli elettori.

Per venire a capo del problema, la Camera dei Rappresentanti ha tenuto la sua prima audizione dedicata alla proliferazione dei deepfake e la deputata democratica Yvette Clarke ha presentato una proposta di legge sullo stesso argomento. Non è la prima volta che i politici statunitensi stanno cercando di intervenire su questo problema. Nel dicembre del 2018, il senatore repubblicano Ben Sasse ha presentato un disegno di legge mirato a vietare i deepfake pericolosi. Il senatore repubblicano Marco Rubio, a sua volta, ha ripetutamente lanciato l’allarme sull’utilizzo di questa tecnologia. Ma è la prima volta che si assiste a iniziative concertate da parte dei legislatori statunitensi.

Il progetto di legge

La nuova proposta legislativa, che è il prodotto di diversi mesi di confronto con scienziati informatici, esperti di disinformazione e difensori dei diritti umani, segue tre filoni d’azione. Il primo richiede ad aziende e ricercatori che creano strumenti che possono essere utilizzati nei deepfakes di aggiungere automaticamente filigrane per rendere riconoscibili le produzioni contraffatte. Il secondo invita le società di social media a rilevare con più attenzione le manipolazioni direttamente sulle loro piattaforme. Infine, il terzo si basa su sanzioni, come multe o addirittura il carcere, per punire chi lancia attacchi dannosi per gli individui o minacciosi per la sicurezza nazionale.

In particolare, si vuole introdurre una possibilità di ricorso legale nel caso la reputazione delle persone fosse danneggiata dai video contraffatti. “Questo problema non riguarda solo i politici”, afferma Mutale Nkonde, del Data & Society Research Institute, che ha collaborato alla stesura del progetto di legge. “I video manipolati sono spesso rivolti contro donne, minoranze, comunità LGBT e poveri. Esattamente quelle persone che difficilmente potranno difendere la loro reputazione”.

L’obiettivo del disegno di legge è, secondo chi lo propone, di suscitare un confronto approfondito su come affrontare il problema, proponendo raccomandazioni specifiche che possono essere criticate e perfezionate. “Quello che stiamo davvero cercando di fare”, dice Nkonde, “è rendere consapevole il Congresso del fatto che la manipolazione audiovisiva è del tutto inaccettabile”.

Lo stato dell’arte dei deepfake

Witness, un’organizzazione senza scopo di lucro per la difesa dei diritti umani, ha pubblicato un nuovo rapporto di ricerca che documenta lo sviluppo attuale della tecnologia deepfake. La tecnica manipolatoria non è ancora perfezionata e richiede abilità specialistiche per produrre un falso. Spesso rimangono tracce dell’intervento all’interno del video, come glitch e pixel, che rendono evidente la contraffazione.

Ma la tecnologia è avanzata a un ritmo rapido e la quantità di dati necessari per simulare un video è diminuita drasticamente. Due settimane fa, Samsung ha dimostrato che era possibile creare un video a partire da una singola foto; di recente alcuni ricercatori universitari e industriali hanno reso pubblico un demo di un nuovo strumento che consente agli utenti di modificare le parole di qualcuno, digitando semplicemente ciò che gli si vorrebbe far dire.

È quindi solo una questione di tempo prima che proliferino i deepfake, dice Sam Gregory, di Witness. “Molti dei modi in cui si possono utilizzare i deepfake – attaccare giornalisti, creare sospetti sulla corruzione dei politici, manipolare le prove – sono chiaramente evoluzioni di tendenze già esistenti, quindi è inevitabile aspettarsi che chi ha cattive intenzioni li sfrutti senza remore”, spiega Gregory.

Il rapporto di Witness delinea una strategia per trovare le contromisure a un futuro così fosco. Molte delle raccomandazioni si allineano alla proposta di legge presentata alla Camera dei Rappresentanti. Dai dati pubblicati emerge che gli attuali investimenti da parte di ricercatori e aziende tecnologiche per la produzione di deepfake superano di gran lunga quelli dedicati al rilevamento dei deepfake. Adobe, per esempio, ha prodotto molti strumenti per semplificare le modifiche dei media, inclusa una recente funzione per la rimozione di oggetti nei video; non ha, tuttavia, studiato un sistema per difendere l’utente dalla manipolazione.

Il risultato è una discrepanza tra la diffusione della manipolazione nei media e gli strumenti disponibili per combatterla. “Se si crea uno strumento per introdurre falsificazioni che l’occhio o l’orecchio umani non sono in grado di distinguere, si dovrebbero allo stesso tempo produrre strumenti per riconoscere le manipolazioni”, afferma Gregory.
Il problema è come fare in modo che questo squilibrio venga corretto.

Il rapporto, come il disegno di legge, invita le aziende che si occupano di social media e di ricerca a integrare più efficacemente le capacità di rilevamento della manipolazione nelle loro piattaforme. Facebook, per esempio, potrebbe investire nei sistemi che evidenziano la rimozione di oggetti, per contrastare le funzionalità di Adobe e altre tecniche di modifica non autorizzate.

L’azienda di Zuckerberg dovrebbe quindi etichettare chiaramente i video e le immagini nei newsfeed degli utenti per segnalare le modificazioni invisibili all’occhio umano. Da parte sua, Google, potrebbe investire nella funzione video reverse per aiutare giornalisti e spettatori a individuare rapidamente la fonte originale di una clip.

Oltre il Congresso

Nonostante lo stretto allineamento del rapporto con il progetto di legge, Gregory avverte che il Congresso degli Stati Uniti dovrebbe riflettere molto attentamente prima di prendere decisioni su questo argomento. “È presto per introdurre regolamentazioni sui deepfake”, egli spiega, anche se fa eccezioni nei casi di un loro utilizzo per la produzione di immagini sessuali non consensuali. “Non penso che si possa avere già oggi un’idea di come le aziende e le piattaforme gestiranno i deepfake per intervenire con una legge”, chiarisce Gregory.

Una preoccupazione è che l’attuale discussione a Washington possa portare a decisioni che potrebbero avere ripercussioni negative in seguito. Le normative statunitensi potrebbero, per esempio, rappresentare un modello da seguire per gli altri paesi. Non è difficile ipotizzare che nei paesi con governi più autoritari, le leggi che proteggono i politici saranno utilizzate per giustificare la rimozione di qualsiasi contenuto controverso o critico verso i leader politici.

Nkonde è d’accordo sul fatto che il Congresso dovrebbe adottare un approccio misurato e ponderato al problema e andare oltre gli aspetti unicamente politici. “Spero davvero che durante le audizioni ci si confronterà sulle ricadute sociali di questa tecnologia manipolatoria”, dice Nkonde, “e dell’impatto psicologico sui cittadini che non sanno più se credere o no a ciò che vedono e sentono”.

(rp)