Facebook insegna all’IA a individuare i deepfake

I video sono progettati per migliorare le prestazioni dei sistemi di intelligenza artificiale poiché anche i metodi migliori non si sono ancora rivelati abbastanza precisi.

di Will Douglas Heaven

I video falsi in rete hanno colpito il pubblico e i ricercatori. C’è qualcosa di singolarmente inquietante in queste immagini generate dall’intelligenza artificiale di persone che sembrano dire o fare qualcosa che non hanno mai fatto. Con gli strumenti facilmente disponibili per chi vuole creare deepfake, molti si preoccupano anche del fatto che verranno utilizzati per diffondere disinformazione. Ai politici possono mettere in bocca le parole di altre persone o farli partecipare a situazioni alle quali non hanno preso parte.

La paura è questa. A oggi, la verità è che a un occhio umano i deepfakes sono ancora relativamente facili da individuare. Secondo un rapporto esaustivo dell’ottobre del 2019 di DeepTreceLabs, un’azienda di sicurezza informatica, non sono stati utilizzati in nessuna campagna di disinformazione. Tuttavia, lo stesso rapporto ha anche scoperto che il numero di deepfake pubblicati online stava crescendo rapidamente, coinvolgendo circa 15.000 utenti nei sette mesi precedenti. Ora quel numero dovrebbe essere molto più grande.

Le aziende di social media temono che i deepfake potrebbero presto inondare i loro siti. Ma rilevarli automaticamente è difficile. Per risolvere il problema, Facebook vuole utilizzare l’IA per combattere i falsi generati dall’IA. Per addestrare i sistemi di intelligenza artificiale a individuare i video manipolati, l’azienda sta rilasciando il più grande set di dati mai realizzato di deepfake: oltre 100.000 clip prodotte utilizzando 3.426 attori e una gamma di tecniche di scambio di volti esistenti.

“I deepfakes non sono attualmente un grosso problema”, afferma il CTO di Facebook, Mike Schroepfer. “Ma la lezione che ho imparato duramente negli ultimi due anni è di non farsi mai cogliere di sorpresa. Preferisco essere preparato alle brutte notizie invece del contrario”.

Facebook ha anche annunciato il vincitore della Deepfake Detection Challenge, in cui 2.114 partecipanti hanno inviato circa 35.000 modelli formati sul proprio set di dati. Il modello migliore, sviluppato da Selim Seferbekov, un ingegnere di machine learning presso l’azienda di mappatura Mapbox, è stato in grado di rilevare se un video era un falso con un’accuratezza del 65 per cento su un set di 10.000 clip mai viste prima, incluso un mix di nuovi video generato da Facebook e altri presi da Internet.

Per rendere le cose più difficili, il set di allenamento e il set di test includono video che possono ingannare un sistema di rilevamento, come persone che offrono tutorial per il trucco e video che sono stati modificati incollando testo e forme sui volti di chi parla, modificando la risoluzione o l’orientamento e rallentandoli.

Invece di apprendere tecniche forensi, come la ricerca di impronte digitali nei pixel di un video manipolato, le prime cinque voci mirano a individuare quando qualcosa nelle immagini sembra “spento”, come potrebbe fare un essere umano.

Per fare ciò, tutti i vincitori hanno utilizzato un nuovo tipo di rete neurale convoluzionale (CNN) sviluppata dai ricercatori di Google lo scorso anno, denominata EfficientNets. Le CNN sono comunemente usate per analizzare le immagini e sono brave a rilevare volti o riconoscere oggetti. Migliorare la loro precisione oltre un certo punto può tuttavia richiedere una messa a punto ad hoc. Le EfficientNets facilitano lo sviluppo di modelli più accurati, anche se non è chiaro cosa le renda sovraperformanti in questo compito rispetto alle altre reti neurali, spiega Seferbekov.

Facebook non prevede di utilizzare nessuno dei modelli vincenti sul proprio sito. Per prima cosa, la precisione del 65 per cento non è ancora sufficiente. Alcuni modelli hanno raggiunto un’accuratezza superiore all’80 per cento con i dati di allenamento, ma la percentuale è diminuita quando il sistema ha visionato video per lui “sconosciuti”. Secondo Seferbekov, la generalizzazione di nuovi video, che possono includere volti diversi scambiati usando tecniche diverse, è la parte più difficile della sfida.

Un modo per migliorare il rilevamento sarebbe quello di concentrarsi sulle transizioni tra i fotogrammi video, monitorandoli nel tempo. “Anche i deepfake di altissima qualità presentano uno sfarfallio tra i frame”, dice Seferbekov. Gli umani sono bravi a individuare queste incoerenze, specialmente nel filmato di volti. 

Ma la rilevazione automatica di questi difetti rivelatori richiederà un numero più alto di dati di allenamento, una maggiore varietà e una potenza di calcolo superiore. Seferbekov ha provato a tracciare questi passaggi di frame, ma non ci è riuscito. “La CPU si è rilevata un vero collo di bottiglia”, spiega.

Facebook suggerisce che il rilevamento di deepfake può anche essere migliorato utilizzando tecniche che vanno oltre l’analisi di un’immagine o di un video stesso, come la valutazione del suo contesto o della provenienza. Sam Gregory, che dirige Witness, un progetto che supporta attivisti per i diritti umani nell’uso delle tecnologie video, accoglie con favore l’investimento di piattaforme di social media nel rilevamento di falsi. 

Witness è membro di Partnership on AI, che ha consigliato Facebook sul suo set di dati. Gregory concorda con Schroepfer che vale la pena prepararsi al peggio. “Non è arrivata l’apocalisse, ma questi strumenti sono un ulteriore incentivo alla violenza e alla disinformazione”, egli dice. Per esempio, il rapporto DeepTrace Labs ha scoperto che il 96 per cento dei deepfake era pornografia non consensuale in cui i volti di altre persone sono incollati su quelli degli artisti nei clip porno. 

Quando milioni di persone sono in grado di creare e condividere video, la fiducia in ciò che vediamo è più importante che mai. Le notizie false si diffondono su Facebook come un incendio e la semplice possibilità di trovarsi di fronte a un deepfake semina dubbi, rendendoci più propensi a mettere in discussione tutto.

Immagine di: Facebook

(rp)

Related Posts
Total
0
Share