STEPHANIE ARNETT/MITTR | GETTY, UNSPLASH

Lo scandalo del deepfake porn di una scuola superiore spinge i legislatori statunitensi ad agire

I legislatori stanno reagendo rapidamente dopo che alcuni adolescenti hanno usato l’intelligenza artificiale per creare immagini sessualmente esplicite non consensuali.

Il 20 ottobre, Francesca Mani è stata convocata nell’ufficio del consulente della sua scuola superiore del New Jersey. Quattordicenne al secondo anno e schermitrice agonistica, Francesca non era una che si metteva nei guai. Quel giorno, nei corridoi circolava una voce: durante l’estate, alcuni ragazzi della scuola avevano usato l’intelligenza artificiale per creare foto sessualmente esplicite e persino pornografiche di alcuni compagni di classe. La ragazza ha scoperto di essere una delle oltre 30 ragazze che potrebbero essere state vittime. (In un’e-mail, la scuola ha dichiarato che il numero di studenti colpiti è “molto inferiore” a 30).

Quel giorno Francesca non ha visto la sua foto. E continua a non volerlo fare. Ha invece dedicato tutte le sue energie a far sì che nessun altro venga preso di mira in questo modo.

Entro 24 ore dalla conoscenza delle foto, Francesca ha scritto lettere a quattro legislatori della zona, condividendo la sua storia e chiedendo loro di intervenire. Tre di loro hanno risposto rapidamente: il rappresentante degli Stati Uniti Joe Morelle di New York, il rappresentante degli Stati Uniti Tom Kean Jr. del New Jersey e il senatore dello Stato del New Jersey Jon Bramnick. Nelle ultime settimane, il suo impegno ha già alimentato un nuovo impulso legislativo per regolamentare la pornografia deepfake non consensuale negli Stati Uniti.

“Quel giorno ho capito che dovevo parlare, perché penso davvero che non vada bene”, mi ha detto Francesca in una telefonata di questa settimana. “È una tecnologia così nuova che le persone non conoscono e non sanno come proteggersi”. Nelle ultime settimane, oltre a festeggiare il suo 15° compleanno, Francesca ha anche lanciato un nuovo sito web che offre risorse ad altre vittime della pornografia deepfake.

Studi del 2019 e del 2021 dimostrano che i deepfakes – immagini manipolate in modo convincente dall’intelligenza artificiale, spesso scambiando volti o voci da diversi media – sono utilizzati principalmente per la pornografia, nella maggior parte dei casi senza il consenso di coloro che appaiono nelle immagini. Al di là del consenso, i deepfakes hanno suscitato serie preoccupazioni sulla privacy delle persone online.

Con la proliferazione e la diffusione degli strumenti di intelligenza artificiale nell’ultimo anno, sono aumentate anche la pornografia deepfake e le molestie sessuali sotto forma di immagini generate dall’intelligenza artificiale. A settembre, ad esempio, circa 20 ragazze in Spagna hanno ricevuto immagini di loro stesse nude dopo che l’intelligenza artificiale era stata usata per spogliarle nelle foto. A dicembre, una delle mie colleghe, la reporter Melissa Heikkilä, ha mostrato come l’applicazione virale di IA generativa Lensa abbia creato immagini pornografiche di lei senza il suo consenso, in netto contrasto con le immagini prodotte dai nostri colleghi maschi.

Gli sforzi dei membri del Congresso per limitare la pornografia deepfake non sono del tutto nuovi. Nel 2019 e nel 2021, la rappresentante Yvette Clarke ha introdotto il DEEPFAKES Accountability Act, che impone ai creatori di deepfake di filigranare i loro contenuti. Nel dicembre 2022, il rappresentante Morelle, che ora lavora a stretto contatto con Francesca, ha introdotto il Preventing Deepfakes of Intimate Images Act. La sua proposta di legge mira a criminalizzare la creazione e la distribuzione di deepfakes pornografici senza il consenso della persona la cui immagine viene utilizzata. Entrambi gli sforzi, che non godevano di un sostegno bipartisan, si sono arenati in passato.

Ma di recente la questione ha raggiunto un “punto di svolta”, afferma Hany Farid, professore dell’Università della California, Berkeley, perché l’IA è diventata molto più sofisticata, rendendo il potenziale di danno molto più grave. “Il vettore della minaccia è cambiato radicalmente”, afferma Farid. Cinque anni fa la creazione di un deepfake convincente richiedeva centinaia di immagini, il che significava che i soggetti più a rischio di essere presi di mira erano le celebrità e i personaggi famosi con molte foto accessibili al pubblico. Oggi, invece, i deepfake possono essere creati con una sola immagine.

Farid afferma: “Abbiamo appena dato ai ragazzi delle scuole superiori la madre di tutte le armi nucleari, ovvero la possibilità di creare porno con [una singola immagine] di chiunque vogliano. E naturalmente lo fanno”.

Clarke e Morelle, entrambi democratici di New York, hanno reintrodotto le loro proposte di legge quest’anno. Quella di Morelle ha ora 18 cosponsor di entrambi i partiti, quattro dei quali si sono aggiunti dopo che l’incidente che ha coinvolto Francesca è venuto alla luce, il che indica che potrebbe esserci un reale slancio legislativo per far passare la legge. Proprio questa settimana, poi, il rappresentante Kean, uno dei cosponsor della proposta di legge di Morelle, ha presentato una proposta correlata che intende portare avanti gli sforzi per l’etichettatura dell’intelligenza artificiale, in parte in risposta agli appelli di Francesca.

La regolamentazione dell’IA negli Stati Uniti è un affare complicato, anche se l’interesse ad agire ha raggiunto nuove vette (e alcuni Stati stanno procedendo con i propri tentativi legislativi). Le proposte per regolamentare i deepfakes spesso includono misure per etichettare e rilevare i contenuti generati dall’IA e moderare il materiale pedopornografico sulle piattaforme. Ciò solleva questioni politiche spinose e problemi legati al Primo Emendamento. 

Morelle, tuttavia, ritiene che la sua proposta di legge abbia trovato una soluzione “elegante” che evita alcuni di questi problemi concentrandosi specificamente sui creatori e sui distributori – sviluppando una via per le accuse civili e penali e designando la creazione e la condivisione di deepfakes pornografici non consensuali come un crimine federale. La proposta di legge “mette davvero la responsabilità e l’esposizione sulla persona che pubblica qualcosa senza il consenso di chi è nell’immagine o nel video”, dice Morelle. Il disegno di legge è all’esame della Commissione giudiziaria della Camera e l’ufficio di Morelle intende insistere per la sua approvazione a gennaio. Se passerà in commissione, sarà poi sottoposta al voto della Camera.

Secondo Farid, la proposta di legge di Morelle è un buon primo passo verso la consapevolezza e la responsabilità, ma a lungo termine il problema dovrà essere affrontato a monte con i siti web, i servizi, le società di carte di credito e i fornitori di servizi Internet che “traggono profitto” dal deepfake porn non consensuale.

Ma nel frattempo, la scarsità di norme e di precedenti legali sulla pornografia deepfake significa che le vittime come Francesca hanno poche o nessuna possibilità di ricorso. La polizia del New Jersey ha detto a Bramnick che l’incidente probabilmente non sarebbe stato altro che una “denuncia per molestie informatiche”, piuttosto che un reato più grave come la pedopornografia. Dopo essersi messo in contatto con Francesca, Bramnick si è fatto promotore di una proposta di legge nel New Jersey che prevede sanzioni civili e penali per la pornografia deepfake non consensuale a livello statale.

Il senso di impotenza è proprio ciò che Francesca spera di cambiare. Lei e sua madre, Dorota Mani, hanno in programma di recarsi a Washington nelle prossime settimane per parlare con i membri del Congresso, per attirare l’attenzione sul problema ed esortarli ad approvare la proposta di legge di Morelle.

“Dovremmo mettere in atto delle leggi, tipo, immediatamente, in modo che quando ti succede, hai una legge che ti protegge”, mi ha detto Francesca. “Io non avevo una legge che mi proteggesse”.

Related Posts
Total
0
Share