STEPHANIE ARNETT/MITTR | GETTY

Come segnalare i contenuti prodotti dall’Intelligenza Artificiale

Un protocollo Internet chiamato C2PA utilizza la crittografia per identificare immagini, video e audio.

Di recente ho scritto un breve articolo su un progetto sostenuto da alcune importanti aziende del settore tecnologico e dei media che cerca di aiutare a identificare i contenuti realizzati o alterati dall’IA.

Con il boom di testi, immagini e video generati dall’intelligenza artificiale, sia i legislatori sia gli utenti di Internet hanno chiesto maggiore trasparenza. Sebbene possa sembrare una richiesta molto ragionevole quella di aggiungere semplicemente un’etichetta (e lo è), in realtà non è facile e le soluzioni esistenti, come il rilevamento e il watermarking alimentato dall’intelligenza artificiale, presentano alcune gravi insidie.

Come ha scritto la mia collega Melissa Heikkilä, la maggior parte delle soluzioni tecniche attuali “non ha alcuna possibilità di competere con l’ultima generazione di modelli linguistici dell’IA”. Ciononostante, la corsa all’etichettatura e al rilevamento dei contenuti generati dall’IA è in corso.

È qui che entra in gioco questo protocollo. Avviato nel 2021, C2PA (dal nome del gruppo che lo ha creato, la Coalition for Content Provenance and Authenticity) è un insieme di nuovi standard tecnici e di codice liberamente disponibile che etichetta in modo sicuro i contenuti con informazioni che ne chiariscono la provenienza.

Ciò significa che un’immagine, ad esempio, viene contrassegnata con informazioni dal dispositivo da cui proviene (come la fotocamera di un telefono), da eventuali strumenti di editing (come Photoshop) e infine dalla piattaforma di social media su cui viene caricata. Nel tempo, queste informazioni creano una sorta di storia, che viene registrata.

La tecnologia in sé – e i modi in cui C2PA è più sicura di altre alternative di etichettatura IA – è piuttosto interessante, anche se un po’ complicata. Ne parlo più approfonditamente nel mio articolo, ma forse è più facile pensarla come un’etichetta nutrizionale (che è l’analogia preferita dalla maggior parte delle persone con cui ho parlato). Qui potete vedere un esempio di video deepfake con l’etichetta creata da Truepic, un membro fondatore di C2PA, con Revel AI.

“L’idea di provenienza consiste nel contrassegnare il contenuto in modo interoperabile e in grado di evidenziare le manomissioni, così che possa viaggiare attraverso Internet con la trasparenza e l’etichetta nutrizionale”, afferma Mounir Ibrahim, vicepresidente degli affari pubblici di Truepic.

Quando è stata lanciata, C2PA era sostenuta da poche aziende importanti, tra cui Adobe e Microsoft, ma negli ultimi sei mesi i suoi membri sono aumentati del 56%. Proprio questa settimana, la grande piattaforma multimediale Shutterstock ha annunciato che utilizzerà C2PA per etichettare tutti i suoi media generati dall’intelligenza artificiale

Si basa su un approccio opt-in, per cui i gruppi che desiderano verificare e divulgare la provenienza dei contenuti, come un giornale o un inserzionista, sceglieranno di aggiungere le credenziali ai media.

Uno dei responsabili del progetto, Andy Parsons, che lavora per Adobe, attribuisce il nuovo interesse e l’urgenza del C2PA alla proliferazione dell’IA generativa e all’attesa di una legislazione, sia negli Stati Uniti che nell’UE, che imporrà nuovi livelli di trasparenza.

La visione è grandiosa: le persone coinvolte mi hanno confessato che il vero successo dipende da un’adozione diffusa, se non universale. Hanno detto che sperano che tutte le principali aziende di contenuti adottino lo standard.

Per questo, dice Ibrahim, la chiave è l’usabilità: “Si vuole essere sicuri che, indipendentemente da dove va su Internet, venga letto ed elaborato allo stesso modo, proprio come la crittografia SSL. È così che si scala un ecosistema online più trasparente”.

Questo potrebbe essere uno sviluppo cruciale in vista della stagione elettorale statunitense, quando tutti gli occhi saranno puntati sulla disinformazione generata dall’intelligenza artificiale. I ricercatori del progetto affermano di star lavorando per rilasciare nuove funzionalità e avvicinare altre piattaforme di social media prima del momento di picco delle elezioni.

Al momento, C2PA lavora principalmente su immagini e video, anche se i membri dicono che stanno lavorando per gestire i contenuti testuali. Nel pezzo mi soffermo su alcune delle altre carenze del protocollo, ma ciò che è davvero importante capire è che anche quando l’uso dell’IA sarà reso noto, potrebbe non arginare i danni della disinformazione generata dalle macchine. Le piattaforme di social media dovranno ancora decidere se mantenere queste informazioni sui loro siti e gli utenti dovranno decidere da soli se fidarsi e condividere i contenuti.

Ricorda un po’ le iniziative delle piattaforme tecnologiche degli ultimi anni per etichettare la disinformazione. Facebook ha etichettato oltre 180 milioni di post come disinformazione prima delle elezioni del 2020, e chiaramente c’erano ancora notevoli problemi. Anche se C2PA non intende assegnare indicatori di accuratezza ai post, è chiaro che fornire maggiori informazioni sui contenuti non può necessariamente salvarci da noi stessi.

Related Posts
Total
0
Share