STEPHANIE ARNETT/MITTR | IMAGEFX, ENVAT

Perché i piani delle Big Tech sul watermarking sono una gradita buona notizia

Le grandi aziende tecnologiche stanno sostenendo uno standard che potrebbe aggiungere una “etichetta nutrizionale” a immagini, video e audio.

Questa settimana sono lieta di darvi alcune notizie incoraggianti dal mondo dell’IA. Dopo il deprimente scandalo dei deepfake porn di Taylor Swift e la proliferazione dei deepfake politici, come le robocall generate dall’IA del Presidente Biden che chiedono agli elettori di restare a casa, le aziende tecnologiche si stanno facendo avanti e stanno adottando misure per individuare meglio i contenuti generati dall’IA.

Il 6 febbraio Meta ha dichiarato che avrebbe etichettato le immagini generate dall’intelligenza artificiale su Facebook, Instagram e Threads. Quando qualcuno utilizza gli strumenti di IA di Meta per creare immagini, l’azienda aggiungerà marcatori visibili all’immagine, oltre a filigrane e metadati invisibili nel file dell’immagine. L’azienda afferma che i suoi standard sono in linea con le migliori pratiche definite dalla Partnership on AI, un’organizzazione no-profit per la ricerca sull’IA.

Anche le grandi aziende tecnologiche stanno sostenendo un promettente standard tecnico che potrebbe aggiungere un'”etichetta nutrizionale” a immagini, video e audio. Chiamato C2PA, è un protocollo Internet open-source che si basa sulla crittografia per codificare i dettagli sulle origini di un contenuto, o ciò che i tecnologi chiamano informazioni di “provenienza”. Gli sviluppatori di C2PA spesso paragonano il protocollo a un’etichetta nutrizionale, che però indica la provenienza dei contenuti e chi – o cosa – li ha creati. Per saperne di più, leggete qui.

L’8 febbraio Google ha annunciato che si unirà ad altri giganti tecnologici come Microsoft e Adobe nel comitato direttivo di C2PA e includerà il suo watermark SynthID in tutte le immagini generate dall’intelligenza artificiale nei suoi nuovi strumenti Gemini. Anche Meta ha dichiarato di partecipare a C2PA. La presenza di uno standard a livello industriale rende più facile per le aziende rilevare i contenuti generati dall’intelligenza artificiale, indipendentemente dal sistema con cui sono stati creati.

Anche OpenAI ha annunciato la scorsa settimana nuove misure di provenienza dei contenuti. Ha dichiarato che aggiungerà dei watermark ai metadati delle immagini generate con ChatGPT e DALL-E 3, la sua IA per la creazione di immagini. OpenAI afferma che ora includerà un’etichetta visibile nelle immagini per segnalare che sono state create con l’IA.

Questi metodi sono un inizio promettente, ma non sono infallibili. I watermark nei metadati sono facili da aggirare facendo uno screenshot delle immagini e utilizzando solo quello, mentre le etichette visive possono essere ritagliate o modificate. Forse c’è più speranza per i watermark invisibili come il SynthID di Google, che modifica sottilmente i pixel di un’immagine in modo che i programmi informatici possano rilevare il watermark ma l’occhio umano no. Sono più difficili da manomettere. Inoltre, non esistono modi affidabili per etichettare e rilevare video, audio e persino testo generati dall’intelligenza artificiale.

Ma la creazione di questi strumenti di tracciatura ha ancora un valore. Come mi ha detto Henry Ajder, esperto di IA generativa, un paio di settimane fa quando l’ho intervistato su come prevenire la pornografia deepfake, il punto è creare una “complessa esperienza utente”. In altre parole, aggiungere barriere e attriti alla pipeline del deepfake per rallentare il più possibile la creazione e la condivisione di contenuti dannosi. Una persona determinata sarà probabilmente ancora in grado di superare queste protezioni, ma ogni piccolo aiuto è utile.

Ci sono anche molte soluzioni non tecniche che le aziende tecnologiche potrebbero introdurre per prevenire problemi come il deepfake porn. I principali fornitori di servizi cloud e app store come Google, Amazon, Microsoft e Apple, potrebbero vietare i servizi che possono essere utilizzati per creare deepfake nudes non consensuali. Inoltre, i watermark dovrebbero essere inclusi in tutti i contenuti generati dall’intelligenza artificiale, anche da piccole startup che sviluppano questa tecnologia.

Ciò che mi fa ben sperare è che accanto a queste misure volontarie iniziamo a vedere regolamenti vincolanti, come l’AI Act dell’UE e il Digital Services Act, che impongono alle aziende tecnologiche di divulgare i contenuti generati dall’AI e di eliminare più rapidamente i contenuti dannosi. Anche i legislatori statunitensi sono di nuovo interessati ad approvare norme vincolanti sui deepfakes. A seguito delle chiamate automatiche generate dall’intelligenza artificiale del presidente Biden che intimava agli elettori di non votare, la settimana scorsa la Commissione federale per le comunicazioni degli Stati Uniti ha annunciato il divieto di utilizzare l’intelligenza artificiale in queste comunicazioni telefoniche.

In generale sono piuttosto scettico nei confronti delle linee guida e delle regole volontarie, perché non c’è un vero meccanismo di responsabilità e le aziende possono scegliere di cambiare queste regole quando vogliono. Il settore tecnologico ha un pessimo curriculum per quanto riguarda la regolamentazione. In un mondo tecnologico spietato e guidato dalla crescita, cose come l’intelligenza artificiale responsabile sono spesso le prime a subire tagli.

Ma nonostante ciò, questi annunci sono estremamente graditi. Sono anche molto meglio dello status quo, che è pressoché nullo.

Related Posts
Total
0
Share