
La sua nuova applicazione web è progettata per aiutare a segnalare i lavori che non dovrebbero essere inclusi nei database di formazione dei modelli.
Adobe ha annunciato un nuovo strumento per aiutare i creatori a contrassegnare con un watermark le loro opere d’arte e a scegliere di non utilizzarle per addestrare i modelli generativi di intelligenza artificiale.
L’applicazione web, chiamata Adobe Content Authenticity, consente agli artisti di segnalare che non acconsentono all’utilizzo delle loro opere da parte dei modelli di intelligenza artificiale, che sono generalmente addestrati su vasti database di contenuti estrapolati da Internet. Inoltre, offre ai creatori l’opportunità di aggiungere alle loro opere quelle che Adobe chiama “credenziali di contenuto”, tra cui la loro identità verificata, i loro handle sui social media o altri domini online.
Le credenziali dei contenuti si basano su C2PA, un protocollo Internet che utilizza la crittografia per etichettare in modo sicuro immagini, video e audio con informazioni che ne chiariscono la provenienza, l’equivalente del 21° secolo della firma di un artista.
Sebbene Adobe avesse già integrato le credenziali in diversi suoi prodotti, tra cui Photoshop e il proprio modello di intelligenza artificiale generativa Firefly, Adobe Content Authenticity consente ai creatori di applicarle ai contenuti indipendentemente dal fatto che siano stati creati con strumenti Adobe. L’azienda lancerà una beta pubblica all’inizio del 2025.
La nuova app è un passo nella giusta direzione per rendere C2PA più onnipresente e potrebbe rendere più facile per i creatori iniziare ad aggiungere credenziali di contenuto al loro lavoro, afferma Claire Leibowicz, responsabile dell’AI e dell’integrità dei media presso l’organizzazione no-profit Partnership on AI.
“Credo che Adobe stia almeno tentando di avviare una conversazione culturale, consentendo ai creatori di avere una certa capacità di comunicare di più e di sentirsi più responsabili”, afferma l’autrice. “Ma se le persone rispondono effettivamente all’avviso ‘Non formare’ è un’altra questione”.
L’applicazione si aggiunge a un settore in crescita di strumenti di intelligenza artificiale progettati per aiutare gli artisti a contrastare le aziende tecnologiche, rendendo più difficile per queste ultime il recupero delle loro opere protette da copyright senza consenso o compenso. L’anno scorso, i ricercatori dell’Università di Chicago hanno rilasciato Nightshade e Glaze, due strumenti che consentono agli utenti di aggiungere un attacco velenoso invisibile alle loro immagini. Uno provoca la rottura dei modelli AI quando il contenuto protetto viene “raschiato”, mentre l’altro nasconde lo stile artistico di qualcuno ai modelli AI. Adobe ha anche creato un’estensione per il browser Chrome che consente agli utenti di controllare i contenuti dei siti web alla ricerca di credenziali esistenti.
Gli utenti di Adobe Content Authenticity potranno allegare quante o poche informazioni desiderano ai contenuti che caricano. Poiché è relativamente facile privare accidentalmente un contenuto dei suoi metadati unici mentre lo si prepara per essere caricato su un sito web, Adobe utilizza una combinazione di metodi, tra cui l’impronta digitale e il watermarking invisibile, oltre ai metadati crittografici.
Ciò significa che le credenziali del contenuto seguiranno l’immagine, l’audio o il file video attraverso il web, in modo che i dati non vadano persi se vengono caricati su piattaforme diverse. Anche se qualcuno fa uno screenshot di un contenuto, Adobe sostiene che le credenziali possono essere recuperate.
Tuttavia, l’azienda riconosce che lo strumento è tutt’altro che infallibile. “Chiunque vi dica che il proprio watermark è difendibile al 100% sta mentendo”, afferma Ely Greenfield, CTO di Adobe per i media digitali. “Si tratta di difendersi da una spoliazione accidentale o non intenzionale, piuttosto che da un attore malintenzionato”.
Il rapporto dell’azienda con la comunità artistica è complicato. A febbraio, Adobe ha aggiornato i propri termini di servizio per consentire l’accesso ai contenuti degli utenti “attraverso metodi sia automatici che manuali” e per affermare che utilizza tecniche come l’apprendimento automatico per migliorare i propri “servizi e software”, in una formulazione vaga. L’aggiornamento è stato accolto da una forte reazione da parte degli artisti che hanno ritenuto che l’azienda intendesse utilizzare il loro lavoro per addestrare Firefly. Adobe ha poi chiarito che il linguaggio si riferiva a funzioni non basate sull’intelligenza artificiale generativa, tra cui uno strumento di Photoshop che rimuove gli oggetti dalle immagini.
Sebbene Adobe affermi di non addestrare (e di non voler addestrare) la sua IA sui contenuti degli utenti, molti artisti hanno sostenuto che l’azienda non ottiene il consenso o non possiede i diritti sulle immagini dei singoli collaboratori, afferma Neil Turkewitz, attivista per i diritti degli artisti ed ex vicepresidente esecutivo della Recording Industry Association of America.
“Non ci vorrebbe un grande cambiamento perché Adobe diventi davvero un attore etico in questo spazio e dimostri di essere leader”, afferma. “Ma è fantastico che le aziende si stiano occupando della provenienza e del miglioramento degli strumenti per i metadati, che sono tutti parte di una soluzione definitiva per affrontare questi problemi”.