Contrastare le aziende tecnologiche che usano il vostro lavoro per addestrare i loro sistemi di intelligenza artificiale senza il vostro consenso.
Fin dall’inizio del boom dell’IA generativa, gli artisti si sono preoccupati di perdere i loro mezzi di sostentamento a causa degli strumenti di IA. Ci sono stati molti esempi di aziende che hanno sostituito il lavoro umano con programmi informatici. Di recente, la Coca-Cola ha scatenato polemiche creando un nuovo spot natalizio con l’IA generativa.
Artisti e scrittori hanno avviato diverse azioni legali contro le aziende di AI, sostenendo che le loro opere sono state inserite in database per l’addestramento di modelli di AI senza consenso o compenso. Le aziende tecnologiche hanno risposto che tutto ciò che si trova su Internet rientra nel fair use. Ma ci vorranno anni prima di avere una soluzione legale al problema.
Purtroppo, c’è poco da fare se il vostro lavoro è stato inserito in un set di dati e utilizzato in un modello già esistente. Potete però prendere provvedimenti per evitare che il vostro lavoro venga utilizzato in futuro.
Ecco quattro modi per farlo.
Maschera il tuo stile
Uno dei modi più popolari con cui gli artisti stanno combattendo contro lo scraping dell’IA è l’applicazione di “maschere” alle loro immagini, che proteggono il loro stile personale dall’essere copiato.
Strumenti come Mist, Anti-DreamBooth e Glaze aggiungono piccole modifiche ai pixel di un’immagine che sono invisibili all’occhio umano, in modo che, se e quando le immagini vengono scrapate, i modelli di apprendimento automatico non possano decifrarle correttamente. Per eseguire Mist e Anti-DreamBooth sono necessarie alcune competenze di codifica, mentre Glaze, sviluppato dai ricercatori dell’Università di Chicago, è più semplice da applicare. Lo strumento è gratuito e disponibile per il download come app, oppure la protezione può essere applicata online. Non sorprende che sia lo strumento più popolare e che sia stato scaricato milioni di volte.
Ma difese come queste non sono mai infallibili e ciò che funziona oggi potrebbe non funzionare domani. Nel campo della sicurezza informatica, la violazione delle difese è una pratica standard tra i ricercatori, in quanto aiuta a trovare i punti deboli e a rendere i sistemi più sicuri. L’uso di questi strumenti è un rischio calcolato: una volta che qualcosa viene caricato online, se ne perde il controllo e non si possono aggiungere protezioni retroattive alle immagini.
Ripensare dove e come condividere
I popolari siti di profili artistici come DeviantArt e Flickr sono diventati miniere d’oro per le aziende di intelligenza artificiale alla ricerca di dati di addestramento. E quando si condividono immagini su piattaforme come Instagram, la sua società madre, Meta, può utilizzare i dati per costruire i suoi modelli in perpetuo se le immagini sono state condivise pubblicamente. (Si veda la voce “opt-out” qui sotto).
Un modo per evitare lo scraping è quello di non condividere immagini online pubblicamente o di rendere privati i propri profili sui social media. Ma per molti creativi questa non è un’opzione: condividere il lavoro online è un modo cruciale per attirare clienti.
Vale la pena di prendere in considerazione la possibilità di condividere il proprio lavoro su Cara, una nuova piattaforma creata in risposta alle reazioni contro l’intelligenza artificiale. Cara, che collabora con i ricercatori di Glaze, prevede di aggiungere integrazioni agli strumenti di difesa dell’arte del laboratorio. Implementa automaticamente i tag “NoAI” che indicano agli scrapers online di non raschiare le immagini dal sito. Al momento si affida alla buona volontà delle aziende di IA di rispettare i desideri dichiarati dagli artisti, ma è meglio di niente.
Rinuncia allo scraping
Le leggi sulla protezione dei dati potrebbero aiutarvi a far sì che le aziende tecnologiche escludano i vostri dati dall’addestramento dell’IA. Se vivete in un paese in cui vigono queste leggi, come il Regno Unito o l’Unione Europea, potete chiedere alle aziende tecnologiche di escludere i vostri dati dall’addestramento dell’IA. Ad esempio, potete seguire queste istruzioni per Meta. Sfortunatamente, le richieste di opt-out da parte di utenti che vivono in luoghi privi di leggi sulla protezione dei dati vengono accolte solo a discrezione delle aziende tecnologiche.
Il sito Have I Been Trained, creato dalla società gestita da artisti Spawning AI, consente di cercare se le proprie immagini sono finite in popolari set di dati open-source per l’addestramento dell’intelligenza artificiale. L’organizzazione ha collaborato con due aziende: Stability AI, che ha creato Stable Diffusion, e Hugging Face, che promuove l’accesso aperto all’IA. Se aggiungete le vostre immagini al registro Do Not Train di Spawning AI, queste aziende hanno accettato di rimuovere le vostre immagini dai loro set di dati di addestramento prima di addestrare nuovi modelli. Anche in questo caso, purtroppo, si tratta di un’iniziativa che si basa sulla buona volontà delle aziende di IA e non è uno standard di settore.
Se tutto il resto fallisce, aggiungete del veleno
I ricercatori dell’Università di Chicago che hanno creato Glaze hanno creato anche Nightshade, uno strumento che consente di aggiungere uno strato invisibile di “veleno” alle immagini. Come Glaze, aggiunge modifiche invisibili ai pixel, ma anziché limitarsi a rendere difficile l’interpretazione delle immagini da parte dei modelli di intelligenza artificiale, può rompere le future iterazioni di questi modelli e farli comportare in modo imprevedibile. Ad esempio, le immagini di cani potrebbero diventare gatti e le borse potrebbero diventare tostapane. I ricercatori affermano che sono necessari relativamente pochi campioni di veleno per avere un impatto.
È possibile aggiungere Nightshade alla propria immagine scaricando un’applicazione qui. In futuro, il team spera di combinare Glaze e Nightshade, ma al momento le due protezioni devono essere aggiunte separatamente.