
Sebbene l’intelligenza artificiale stia alimentando un’ondata di immagini artificiali di abusi sui minori, viene anche testata come strumento per fermare i danni alle vittime reali.
L’intelligenza artificiale generativa ha permesso un’impennata nella produzione di immagini di abusi sessuali su minori. Ora, secondo un nuovo documento governativo, il principale investigatore statunitense in materia di sfruttamento minorile sta sperimentando l’uso dell’intelligenza artificiale per distinguere le immagini generate dall’intelligenza artificiale dal materiale che ritrae vittime reali.
Il Cyber Crimes Center del Dipartimento della Sicurezza Nazionale, che indaga sullo sfruttamento minorile oltre i confini internazionali, ha assegnato un contratto da 150.000 dollari alla Hive AI di San Francisco per il suo software, in grado di identificare se un contenuto è stato generato dall’intelligenza artificiale.
Il documento, pubblicato il 19 settembre, è stato pesantemente censurato e il cofondatore e CEO di Hive, Kevin Guo, ha dichiarato al MIT Technology Review di non poter discutere i dettagli del contratto, ma ha confermato che esso prevede l’uso degli algoritmi di rilevamento dell’IA dell’azienda per il materiale pedopornografico (CSAM).
Il documento cita i dati del National Center for Missing and Exploited Children, che ha segnalato un aumento del 1.325% degli incidenti che coinvolgono l’intelligenza artificiale generativa nel 2024. “L’enorme volume di contenuti digitali che circolano online richiede l’uso di strumenti automatizzati per elaborare e analizzare i dati in modo efficiente”, si legge nel documento.
La priorità assoluta degli investigatori che si occupano di sfruttamento minorile è quella di individuare e fermare qualsiasi abuso in corso, ma il dilagare di CSAM generato dall’intelligenza artificiale ha reso difficile per gli investigatori capire se le immagini ritraggano una vittima reale attualmente in pericolo. Uno strumento in grado di segnalare con successo le vittime reali sarebbe di grande aiuto nel tentativo di dare priorità ai casi.
L’identificazione delle immagini generate dall’intelligenza artificiale “garantisce che le risorse investigative siano concentrate sui casi che coinvolgono vittime reali, massimizzando l’impatto del programma e salvaguardando le persone vulnerabili”, si legge nel documento.
Hive AI offre strumenti di intelligenza artificiale che creano video e immagini, oltre a una serie di strumenti di moderazione dei contenuti in grado di segnalare violenza, spam e materiale sessuale e persino di identificare personaggi famosi. A dicembre, MIT Technology Review ha riferito che l’azienda stava vendendo la sua tecnologia di rilevamento dei deepfake all’esercito statunitense.
Per rilevare il CSAM, Hive offre uno strumento creato con Thorn, un’organizzazione no profit per la sicurezza dei minori, che le aziende possono integrare nelle loro piattaforme. Questo strumento utilizza un sistema di “hashing”, che assegna ID univoci ai contenuti che gli investigatori riconoscono come CSAM e blocca il caricamento di tale materiale. Questo strumento, e altri simili, sono diventati una linea di difesa standard per le aziende tecnologiche.
Ma questi strumenti si limitano a identificare un contenuto come CSAM; non rilevano se è stato generato dall’IA. Hive ha creato uno strumento separato che determina se le immagini in generale sono state generate dall’IA . Sebbene non sia stato addestrato specificamente per lavorare sui CSAM, secondo Guo, non è necessario che lo sia.
“C’è una combinazione sottostante di pixel in questa immagine che possiamo identificare” come generata dall’IA, afferma. “Può essere generalizzabile”.
Questo strumento, dice Guo, è quello che il Cyber Crimes Center utilizzerà per valutare il CSAM. Aggiunge che Hive valuta i propri strumenti di rilevamento per ogni caso d’uso specifico che i suoi clienti hanno in mente.
Il National Center for Missing and Exploited Children, che partecipa agli sforzi per fermare la diffusione del CSAM, non ha risposto alle richieste di commento sull’efficacia di tali modelli di rilevamento in tempo per la pubblicazione.
Nella sua richiesta, il governo giustifica l’assegnazione del contratto a Hive senza una procedura di gara competitiva. Sebbene parti di questa giustificazione siano state omesse, essa fa riferimento principalmente a due punti che si trovano anche in una presentazione di Hive slide deck . Uno riguarda uno studio del 2024 dell’Università di Chicago, che ha scoperto che lo strumento di rilevamento AI di Hive ha superato altri quattro rilevatori nell’identificazione di opere d’arte generate dall’intelligenza artificiale. L’altro è il suo contratto con il Pentagono per l’identificazione dei deepfake. La fase di prova durerà tre mesi.




