SARAH ROGERS / MITTR | GETTY

Tre modi per combattere il deepfake porn

Taylor Swift è stata recentemente oggetto di una feroce campagna di deepfake porn non consensuale. Questi strumenti e politiche potrebbero aiutarci a evitare che si ripeta.

La scorsa settimana, immagini sessualmente esplicite di Taylor Swift, una delle più grandi pop star del mondo, sono diventate virali online. Milioni di persone hanno visto immagini porno deepfake non consensuali della Swift sulla piattaforma di social media X, precedentemente nota come Twitter. X ha preso il drastico provvedimento di bloccare tutte le ricerche di Taylor Swift per cercare di tenere sotto controllo il problema.

Non si tratta di un fenomeno nuovo: i deepfake esistono da anni. Tuttavia, l’ascesa dell’intelligenza artificiale generativa ha reso più facile che mai creare pornografia deepfake e molestare sessualmente le persone utilizzando immagini e video generati dall’intelligenza artificiale.

Di tutti i tipi di danni legati all’IA generativa, i deepfakes non consensuali colpiscono il maggior numero di persone, con le donne che costituiscono la stragrande maggioranza dei bersagli, afferma Henry Ajder, un esperto di IA specializzato in IA generativa e media sintetici.

Per fortuna, c’è qualche speranza. Nuovi strumenti e leggi potrebbero rendere più difficile per gli aggressori manipolare le foto delle persone e potrebbero aiutarci a perseguire i responsabili.

Ecco tre modi per combattere il deepfake porn non consensuale.

WATERMARK

Le piattaforme di social media passano al setaccio i post caricati sui loro siti e rimuovono i contenuti che vanno contro le loro politiche. Ma questo processo è a dir poco lacunoso e non tiene conto di molti contenuti nocivi, come dimostrano i video di Swift su X. È anche difficile distinguere tra contenuti autentici e contenuti generati dall’intelligenza artificiale.

Una soluzione tecnica potrebbe essere rappresentata dai watermark. Le filigrane nascondono un segnale invisibile nelle immagini che aiuta i computer a identificare se sono state generate dall’IA. Ad esempio, Google ha sviluppato un sistema chiamato SynthID che utilizza reti neurali per modificare i pixel delle immagini e aggiunge una filigrana invisibile all’occhio umano. Tale marchio è progettato per essere rilevato anche se l’immagine viene modificata o sottoposta a screenshot. In teoria, questi strumenti potrebbero aiutare le aziende a migliorare la moderazione dei contenuti e a individuare più rapidamente i contenuti falsi, compresi i deepfake non consensuali.

Pro: Le filigrane potrebbero essere uno strumento utile che rende più facile e veloce l’identificazione dei contenuti generati dall’intelligenza artificiale e l’individuazione dei post tossici che dovrebbero essere eliminati. L’inclusione di watermark in tutte le immagini per impostazione predefinita renderebbe anche più difficile per gli aggressori creare deepfake non consensuali, afferma Sasha Luccioni, ricercatore presso la startup Hugging Face che ha studiato i pregiudizi nei sistemi di intelligenza artificiale.

Contro: questi sistemi sono ancora sperimentali e poco diffusi. Inoltre, un aggressore determinato può ancora manometterli. Inoltre, le aziende non applicano la tecnologia a tutte le immagini. Gli utenti del generatore di immagini Imagen AI di Google possono scegliere se vogliono che le loro immagini generate dall’AI abbiano il watermark, ad esempio. Tutti questi fattori limitano la loro utilità nella lotta al deepfake porn.

SCUDI PROTETTIVI

Al momento, tutte le immagini che pubblichiamo online sono un gioco libero che chiunque può utilizzare per creare un deepfake. E poiché i più recenti sistemi di IA per la creazione di immagini sono così sofisticati, è sempre più difficile dimostrare che i contenuti generati dall’IA sono falsi.

Ma una serie di nuovi strumenti di difesa consente di proteggere le proprie immagini dallo sfruttamento dell’intelligenza artificiale, facendole apparire deformate o distorte dai sistemi di intelligenza artificiale.

Uno di questi strumenti, chiamato PhotoGuard è stato sviluppato dai ricercatori del MIT. Funziona come uno scudo protettivo, alterando i pixel delle foto in modo invisibile all’occhio umano. Quando si utilizza un’applicazione di intelligenza artificiale, come il generatore di immagini Stable Diffusion, per manipolare un’immagine trattata con PhotoGuard, il risultato appare irrealistico. Fawkes, uno strumento simile sviluppato dai ricercatori dell’Università di Chicago, occulta le immagini con segnali nascosti che rendono più difficile il riconoscimento dei volti da parte dei software di riconoscimento facciale.

Un altro nuovo strumento, chiamato Nightshade, potrebbe aiutare le persone a contrastare l’utilizzo nei sistemi di intelligenza artificiale. Lo strumento, sviluppato dai ricercatori dell’Università di Chicago, applica uno strato invisibile di “veleno” alle immagini. Lo strumento è stato sviluppato per proteggere gli artisti dallo scraping delle loro immagini protette da copyright da parte di aziende tecnologiche senza il loro consenso. Tuttavia, in teoria, potrebbe essere utilizzato su qualsiasi immagine che il proprietario non voglia che finisca per essere sfruttata dai sistemi di intelligenza artificiale. Quando le aziende tecnologiche acquisiscono materiale di formazione online senza consenso, queste immagini avvelenate rompono il modello di IA. Immagini di gatti potrebbero diventare cani e immagini di Taylor Swift potrebbero diventare immagini di animali.

Pro: Questi strumenti rendono più difficile per gli aggressori utilizzare le nostre immagini per creare contenuti dannosi. Sono promettenti per fornire ai privati una protezione contro l’abuso di immagini AI, soprattutto se le app di incontri e le aziende di social media li applicheranno di default, afferma Ajder.

“Dovremmo tutti utilizzare Nightshade per ogni immagine che pubblichiamo su Internet”, afferma Luccioni.

Contro: questi scudi difensivi funzionano sull’ultima generazione di modelli di IA. Ma non è detto che le versioni future non siano in grado di annullare questi meccanismi di protezione. Inoltre, non funzionano sulle immagini già online e sono più difficili da applicare alle immagini delle celebrità, poiché i personaggi famosi non controllano quali foto vengono caricate online.

“Sarà un gigantesco gioco del gatto e del topo”, afferma Rumman Chowdhury, che dirige la società di consulenza e revisione etica dell’IA Parity Consulting.

REGOLAMENTAZIONE

I rimedi tecnici possono arrivare solo fino a un certo punto. L’unica cosa che porterà a un cambiamento duraturo è una regolamentazione più severa, sostiene Luccioni.

I deepfake virali di Taylor Swift hanno dato nuovo slancio agli sforzi per limitare la pornografia deepfake. La Casa Bianca ha dichiarato che l’incidente è “allarmante” e ha esortato il Congresso a prendere provvedimenti legislativi. Finora, gli Stati Uniti hanno adottato un approccio frammentario, Stato per Stato, alla regolamentazione di questa tecnologia. Ad esempio, la California e la Virginia hanno vietato la creazione di deepfake pornografici realizzati senza consenso. Anche New York e la Virginia vietano la distribuzione di questo tipo di contenuti.

Tuttavia, potremmo finalmente vedere un’azione a livello federale. Recentemente è stata presentata al Congresso degli Stati Uniti una nuova proposta di legge bipartisan che renderebbe la condivisione di immagini di nudo false un reato federale. Uno scandalo di deepfake porn in una scuola superiore del New Jersey ha inoltre spinto i legislatori a rispondere con una proposta di legge chiamata Preventing Deepfakes of Intimate Images Act. L’attenzione che il caso della Swift ha portato al problema potrebbe suscitare un maggiore sostegno bipartisan.

Anche i legislatori di tutto il mondo stanno promuovendo leggi più severe per questa tecnologia. L’Online Safety Act del Regno Unito, approvato l’anno scorso, vieta la condivisione di materiale pornografico deepfake, ma non la sua creazione. Gli autori potrebbero rischiare fino a sei mesi di carcere.

Nell’Unione Europea, una serie di nuove proposte di legge affronta il problema da diverse angolazioni. La legge sull‘AI impone ai creatori di deepfake di dichiarare chiaramente che il materiale è stato creato dall’AI, mentre la legge sui servizi digitali richiederà alle aziende tecnologiche di rimuovere molto più rapidamente i contenuti dannosi.

La legge cinese sui deepfake, entrata in vigore nel 2023, è quella che va più lontano. In Cina, i creatori di deepfake devono adottare misure per impedire l’uso dei loro servizi per scopi illegali o dannosi, chiedere il consenso degli utenti prima di trasformare le loro immagini in deepfake, autenticare le identità delle persone ed etichettare i contenuti generati dall’intelligenza artificiale.

Pro: La regolamentazione offrirà alle vittime un’arma di difesa, responsabilizzerà i creatori di pornografia deepfake non consensuale e creerà un potente deterrente. Inoltre, invia un messaggio chiaro: la creazione di deepfake non consensuali non è accettabile. Leggi e campagne di sensibilizzazione dell’opinione pubblica che chiariscano che chi crea questo tipo di pornografia deepfake è un criminale sessuale potrebbero avere un impatto reale, afferma Ajder. “Questo cambierebbe l’atteggiamento un po’ blasé che alcune persone hanno nei confronti di questo tipo di contenuti, considerandoli non dannosi o non una vera e propria forma di abuso sessuale”, dice Ajder.

Contro: sarà difficile far rispettare questo tipo di leggi, aggiunge Ajder. Con le tecniche attuali, sarà difficile per le vittime identificare chi le ha aggredite e costruire un caso contro quella persona. La persona che crea i deepfakes potrebbe anche trovarsi in una giurisdizione diversa, il che rende più difficile l’azione penale.

Related Posts
Total
0
Share