Lotta ai falsi video

Chi aspira a occupare una poltrona presidenziale sarà protetto dagli alter ego dell’IA grazie a una tecnologia che analizza lo stile dei movimenti.

di Will Knight

Un video prodotto dall’IA potrebbe mostrare Donald Trump che dice o fa qualcosa di estremamente provocatorio, al limite dell’oltraggioso. La sua veridicità, nel peggiore dei casi, potrebbe influenzare le elezioni, scatenare la violenza nelle strade o innescare un conflitto armato internazionale.

Fortunatamente, una nuova tecnica digitale forense sembra in grado di proteggere i leader mondiali da tali attacchi, almeno per il momento. Il nuovo metodo utilizza l’apprendimento automatico per analizzare il modo di parlare e i movimenti di un individuo; gli esperti si riferiscono a questa tecnologia con l’espressione “firma softbiometrica”.

I ricercatori dell’UC Berkeley e della University of Southern California hanno utilizzato uno strumento esistente per selezionare i movimenti del viso e della testa individuali. Hanno anche creato i propri deepfakes per Donald Trump, Barack Obama, Bernie Sanders, Elizabeth Warren e Hillary Clinton usando reti antagoniste generative.

Il team ha quindi utilizzato l’apprendimento automatico per distinguere i movimenti della testa e del viso che caratterizzano la persona reale. Questi segnali appena percettibili – il modo in cui Bernie Sanders annuisce mentre pronuncia una parola particolare o il modo in cui Trump sorride durante una conferenza stampa – non sono attualmente modellati dagli algoritmi per la produzione di video falsi.

Negli esperimenti effettuati, la tecnologia ha individuato diverse varianti di deepfake nel 92 per cento dei casi. A differenza di altre tecnologie di rilevamento, questo sistema è anche in grado di riconoscere gli artefatti nei file che provengono dalla ricompressione di un video. I ricercatori hanno in programma di migliorare la tecnologia prendendo in considerazione anche le caratteristiche del modo di parlare. La ricerca, presentata di recente alla conferenza sulla visione artificiale in California, è stata finanziata da Google e DARPA, un’agenzia governativa del Dipartimento della Difesa statunitense.

Il problema che devono affrontare i leader mondiali e chi occupa posizioni di rilievo è la facilità con cui si riescono a generare falsi video con l’intelligenza artificiale. False notizie, falsi account di social media e video manipolati hanno già creato seri problemi di credibilità dell’informazione politica. Gli esperti sono preoccupati che i falsi media possano essere usati per seminare disinformazione durante le elezioni presidenziali del 2020.

Esistono già alcune tecnologie per lo smascheramento dei video contraffatti, ma chi esercita la manipolazione si è rapidamente adattato. Per esempio, per un periodo è stato possibile individuare un deepfake seguendo i movimenti degli occhi di chi parla, che tendevano a essere innaturali nei deepfake. In poco tempo, gli algoritmi di deepfake sono stati ottimizzati per evitare questo inconveniente.

“Stiamo assistendo a una corsa agli armamenti tra le manipolazioni digitali e la capacità di rilevarle, e i progressi degli algoritmi di IA stanno sono al centro dell’interesse di entrambe le parti”, dice Hao Li, un professore dell’Università della California del Sud che ha contribuito a sviluppare la nuova tecnologia.

Per Li sarà particolarmente difficile per i creatori di deepfake trovare una risposta vincente a questa nuova tecnologia, ma è dell’idea che alla fine ci riusciranno. “Il prossimo passo per aggirare questa forma di rilevamento sarà probabilmente quello di sintetizzare movimenti e comportamenti sulla base di materiali video riguardanti la persona presa di mira”, spiega Li.

A suo parere, quando i deepfake diventeranno ancora più semplici da usare e più sofisticati, sarà necessario per tutti prendere in considerazione la possibilità di proteggersi. “Celebrità e personaggi politici sono stati finora i principali obiettivi”, conclude Li. “Ma non sarei sorpreso se in un anno o due, umani artificiali indistinguibili da quelli reali popoleranno la rete”.

(rp)

Related Posts
Total
0
Share