Gli attori di Hollywood sono in sciopero per le preoccupazioni sull’uso dell’intelligenza artificiale, ma per soli 300 dollari Meta e una società chiamata Realeyes li hanno ingaggiati per far apparire gli avatar più umani.
Una sera all’inizio di settembre, T, un attore di 28 anni che ha chiesto di essere identificato con la sua iniziale, ha preso posto in uno studio affittato a Hollywood davanti a tre telecamere, un regista e un produttore per un lavoro alquanto insolito.
Le due ore di riprese hanno prodotto filmati che non erano destinati a essere visti dal pubblico, almeno non da un pubblico umano.
Piuttosto, la voce, il volto, i movimenti e le espressioni di T saranno inseriti in un database di intelligenza artificiale “per comprendere ed esprimere meglio le emozioni umane”. Tale database avrebbe poi contribuito ad addestrare “avatar virtuali” per Meta, nonché algoritmi per un’azienda londinese di IA delle emozioni chiamata Realeyes (Realeyes gestiva il progetto; i partecipanti hanno saputo del coinvolgimento di Meta solo una volta arrivati sul posto).
Lo “studio sulle emozioni” si è svolto da luglio a settembre, reclutando specificamente attori. Il progetto ha coinciso con lo storico doppio sciopero della Writers Guild of America e della Screen Actors Guild (SAG-AFTRA) di Hollywood. Con l’industria ferma, il numero più alto del solito di attori disoccupati potrebbe essere stato un vantaggio per Meta e Realeyes: c’era un nuovo bacino di “trainer” – e di dati – perfettamente adatto a insegnare alla loro IA ad apparire più umana.
Anche per gli attori come T si trattava di una grande opportunità: un modo per fare soldi facili e buoni senza dover attraversare la linea di picchetto.
L’annuncio di lavoro diceva: “Si tratta di un progetto completamente basato sulla ricerca”. Offriva 150 dollari all’ora per almeno due ore di lavoro e affermava che “la vostra immagine individuale non sarà utilizzata per scopi commerciali”.
Gli attori potrebbero aver pensato che questo significasse che i loro volti e le loro performance non sarebbero stati ripresi in uno show televisivo o in un film, ma la natura ampia di ciò che hanno firmato rende impossibile conoscere con certezza le implicazioni complete di ciò che hanno ceduto. Infatti, per partecipare, hanno dovuto rinunciare ad alcuni diritti “in perpetuo” per tecnologie e casi d’uso che potrebbero non esistere ancora.
E anche se l’annuncio di lavoro insisteva sul fatto che il progetto “non si qualifica come lavoro di sciopero” (cioè offerto da datori di lavoro contro i quali il sindacato sta scioperando), esso riguarda comunque alcune delle questioni centrali dello sciopero: come possono essere usate le sembianze degli attori, come gli attori dovrebbero essere compensati per tale uso e come dovrebbe funzionare il consenso informato nell’era dell’intelligenza artificiale.
“Non si tratta di una battaglia contrattuale tra un sindacato e un’azienda”, ha dichiarato Duncan Crabtree-Ireland, capo negoziatore della SAG-AFTRA, durante un panel sull’IA nell’intrattenimento al San Diego Comic-Con quest’estate. “È una questione esistenziale”.
Molti attori del settore, in particolare quelli che fanno da sfondo (noti anche come comparse), temono che l’IA, proprio come i modelli descritti nello studio sulle emozioni, possa essere utilizzata per sostituirli, indipendentemente dal fatto che vengano copiati o meno i loro volti. In questo caso, fornendo le espressioni facciali che insegneranno all’IA ad apparire più umana, i partecipanti allo studio potrebbero in realtà aver inavvertitamente addestrato i loro potenziali sostituti.
“I nostri studi non hanno nulla a che fare con lo sciopero”, ha dichiarato in una e-mail Max Kalehoff, vicepresidente di Realeyes per la crescita e il marketing. “La maggior parte del nostro lavoro consiste nel valutare l’efficacia della pubblicità per i clienti, il che non ha nulla a che fare con gli attori e l’industria dello spettacolo, se non per valutare la reazione del pubblico”. La tempistica, ha aggiunto, è stata “una sfortunata coincidenza”. Meta non ha risposto alle numerose richieste di commento.
Dato che i progressi tecnologici spesso si basano l’uno sull’altro, per non parlare della rapidità con cui si evolve il campo dell’intelligenza artificiale, gli esperti sottolineano che queste aziende possono adempiere solo una parte delle loro promesse.
Oltre all’annuncio di lavoro, MIT Technology Review ha ottenuto ed esaminato una copia del contratto di licenza dei dati e le sue potenziali implicazioni sono davvero vaste. Per dirla senza mezzi termini: che gli attori che hanno partecipato lo sapessero o meno, per soli 300 dollari sembrano aver autorizzato Realeyes, Meta e altri soggetti a scelta delle due società ad accedere e utilizzare non solo i loro volti, ma anche le loro espressioni e tutto ciò che ne deriva, praticamente come e quando vogliono, purché non riproducano le sembianze individuali.
Alcuni attori, come Jessica, che ha chiesto di essere identificata solo con il suo nome di battesimo, hanno ritenuto che il progetto presentasse elementi di “sfruttamento”, sia per quanto riguarda gli incentivi finanziari per gli attori disoccupati, sia per quanto riguarda la lotta per l’IA e l’uso dell’immagine di un attore.
Jessica, una comparsa di New York, dice di aver visto un numero crescente di annunci per lavori di IA negli ultimi anni. “Non ci sono regole chiare al momento”, dice, “quindi non lo so. Forse la loro intenzione è quella di ottenere queste immagini prima che il sindacato firmi un contratto e le fissi”.
Tutto questo lascia gli attori, in difficoltà dopo tre mesi di lavoro limitato o nullo, pronti ad accettare le condizioni di Realeyes e Meta e, intenzionalmente o meno, a influenzare tutti gli attori, indipendentemente dal fatto che scelgano o meno di impegnarsi personalmente con l’IA.
“O si fa male adesso o si fa male dopo”, dice Maurice Compte, attore e membro della SAG-AFTRA che ha avuto ruoli principali in serie come Narcos e Breaking Bad. Dopo aver esaminato l’annuncio di lavoro, non ha potuto fare a meno di vedere un intento nefasto. Certo, ha detto, è vantaggioso avere un lavoro, ma lo vede come un vantaggio “nel modo in cui i nativi americani prendevano le coperte dai coloni bianchi”, aggiungendo: “Ne ricavavano coperte in un periodo di freddo”.
Esseri umani e dati
L’intelligenza artificiale è alimentata dai dati e i dati, a loro volta, sono forniti dagli esseri umani.
È il lavoro umano che prepara, pulisce e annota i dati per renderli più comprensibili alle macchine; come ha riportato MIT Technology Review, ad esempio, gli aspirapolvere robot sanno che non devono passare sopra la cacca del cane perché gli etichettatori di dati umani hanno prima cliccato e identificato milioni di immagini di rifiuti di animali domestici e altri oggetti all’interno delle case.
Quando si tratta di riconoscimento facciale, di altre analisi biometriche o di modelli di IA generativa che mirano a generare esseri umani o avatar simili all’uomo, sono i volti, i movimenti e le voci umane a fungere da dati.
Inizialmente, questi modelli erano alimentati da dati estrapolati da Internet, tra cui, in diverse occasioni, filmati di telecamere di sorveglianza private che venivano condivisi o venduti all’insaputa di chi veniva ripreso.
Ma con l’aumento della necessità di dati di qualità superiore e delle preoccupazioni sulla raccolta dei dati in modo etico e con un consenso adeguato, le aziende tecnologiche sono passate dallo “scraping di dati da fonti pubblicamente disponibili” alla “costruzione di set di dati con professionisti”, spiega Julian Posada, assistente alla Yale University che studia le piattaforme e il lavoro. O, per lo meno, “con persone che sono state reclutate, pagate e che hanno firmato i moduli di consenso”.
Ma la necessità di dati umani, soprattutto nell’industria dell’intrattenimento, si scontra con una preoccupazione importante a Hollywood: i diritti di pubblicità, o “il diritto di controllare l’uso del proprio nome e della propria immagine”, secondo Corynne McSherry, direttore legale della Electronic Frontier Foundation (EFF), un gruppo per i diritti digitali.
Questo problema esisteva già da molto prima dell’IA, ma l’IA lo ha amplificato. L’IA generativa, in particolare, consente di creare facilmente repliche realistiche di chiunque addestrando gli algoritmi su dati esistenti, come foto e video della persona. Più dati sono disponibili, più è facile creare un’immagine realistica. Questo ha un effetto particolarmente importante sugli artisti.
Alcuni attori sono riusciti a monetizzare le caratteristiche che li rendono unici. James Earl Jones, la voce di Darth Vader, ha acconsentito all’uso di registrazioni archiviate della sua voce in modo che l’IA potesse continuare a generarla per i futuri film di Star Wars. Nel frattempo, l’intelligenza artificiale ha permesso a Harrison Ford, Tom Hanks e Robin Wright di ritrarre versioni più giovani di loro stessi sullo schermo. Metaphysic AI, l’azienda dietro la tecnologia di de-invecchiamento, ha recentemente firmato un accordo con la Creative Artists Agency per utilizzare l’IA generativa per i suoi artisti.
Ma molti deepfake, ovvero immagini di eventi falsi creati con l’intelligenza artificiale, sono generati senza consenso. All’inizio di questo mese, Hanks ha postato su Instagram che un annuncio che pretendeva di mostrarlo mentre promuoveva un piano dentistico non era in realtà lui.
Il panorama dell’IA è diverso per le non-celebrità. Alle comparse viene chiesto sempre più spesso di sottoporsi a scansioni corporee digitali sul set, dove hanno poco potere per opporsi o anche solo per ottenere chiarezza su come tali scansioni verranno utilizzate in futuro. Gli studios affermano che le scansioni vengono utilizzate principalmente per aumentare le scene di folla, cosa che fanno da anni con altre tecnologie in post-produzione, ma secondo i rappresentanti della SAG, una volta che gli studios hanno catturato le sembianze degli attori, si riservano il diritto di usarle per sempre (i doppiatori hanno già riferito più volte che le loro voci sono apparse in videogiochi diversi da quelli per cui sono stati ingaggiati).
Nel caso dello studio di Realeyes e Meta, potrebbe trattarsi di “dati di studio” piuttosto che di scansioni corporee, ma gli attori hanno a che fare con la stessa incertezza su come le loro sembianze digitali potrebbero un giorno essere utilizzate.
Insegnare all’IA ad apparire più umana
Con 150 dollari all’ora, lo studio Realeyes ha pagato molto di più dei circa 200 dollari giornalieri previsti dall’attuale contratto della Screen Actors Guild (i lavori non sindacalizzati pagano ancora meno).
Questo ha reso il lavoro una proposta allettante per i giovani attori come T, che hanno appena iniziato a lavorare a Hollywood, un ambiente notoriamente difficile anche se non fosse arrivato poco prima dell’inizio dello sciopero della SAG-AFTRA (T non ha fatto abbastanza lavori sindacalizzati per iscriversi ufficialmente al sindacato, anche se spera di farlo un giorno).
In effetti, più ancora che un normale lavoro di recitazione, T ha descritto l’esibizione per Realeyes come “una sorta di laboratorio di recitazione dove hai la possibilità di lavorare sulle tue capacità di recitazione, cosa che mi ha aiutato un po’”.
Per due ore, T ha risposto a richieste come “Raccontaci qualcosa che ti fa arrabbiare”, “Condividi una storia triste” o “Fai una scena in cui sei spaventato”, improvvisando una storia o una scena appropriata per ciascuna di esse. Secondo lui, è proprio questo requisito di improvvisazione che spiega perché Realeyes e Meta stavano reclutando specificamente attori.
Oltre a desiderare la retribuzione, T ha partecipato allo studio perché, a suo dire, nessuno avrebbe visto i risultati pubblicamente. Si trattava piuttosto di una ricerca per Meta, come apprese quando arrivò allo studio e firmò un contratto di licenza dei dati con la società che sfiorò soltanto. Era la prima volta che sentiva che Meta era collegata al progetto (in precedenza aveva firmato un contratto separato con Realeyes che copriva i termini del lavoro).
L’accordo di licenza dei dati dice che Realeyes è l’unico proprietario dei dati e ha il pieno diritto di “concedere in licenza, distribuire, riprodurre, modificare o altrimenti creare e utilizzare opere derivate” generate da essi, “irrevocabilmente e in tutti i formati e supporti esistenti ora o in futuro”.
Questo tipo di linguaggio legale può essere difficile da analizzare, soprattutto quando si tratta di tecnologia che cambia a un ritmo così rapido. Ma ciò che significa essenzialmente è che “potreste regalare cose di cui non vi siete resi conto perché quelle cose non esistevano ancora”, afferma Emily Poler, avvocato che rappresenta clienti in controversie che riguardano media, tecnologia e proprietà intellettuale.
“Se fossi l’avvocato di un attore, mi informerei se è possibile rinunciare consapevolmente a diritti che ancora non esistono”, aggiunge Poler.
Come sostiene Jessica, “una volta che hanno la tua immagine, possono usarla quando e come vogliono”. Pensa che le sembianze degli attori potrebbero essere utilizzate nello stesso modo in cui le opere di altri artisti, come dipinti, canzoni e poesie, sono state usate per addestrare l’IA generativa, e teme che l’IA possa semplicemente “creare un composito che sembri ‘umano’, come se fosse credibile”, ma “non sarebbe riconoscibile come te, quindi non puoi potenzialmente fargli causa” – anche se l’umano generato dall’IA fosse basato su di te.
Questo sembra particolarmente plausibile a Jessica, data la sua esperienza di attore asiatico-americano in un settore in cui la rappresentazione spesso equivale a essere la minoranza di riferimento. Ora, teme, chiunque assuma attori potrebbe “reclutare alcune persone asiatiche” e scansionarle per creare “un avatar asiatico” da utilizzare invece di “assumere uno di voi per partecipare a una pubblicità”.
Non sono solo le immagini a preoccupare gli attori, afferma Adam Harvey, ricercatore applicato che si occupa di computer vision, privacy e sorveglianza ed è uno dei co-creatori di Exposing.AI, che cataloga i set di dati utilizzati per addestrare i sistemi di riconoscimento facciale.
Il concetto di “somiglianza”, dice, sta cambiando. Mentre oggi la parola è intesa principalmente come somiglianza fotografica, i musicisti stanno sfidando questa definizione per includere le somiglianze vocali. Alla fine, ritiene, “sarà messa in discussione anche la frontiera emotiva”: gli attori potrebbero cioè sostenere che le loro microespressioni sono uniche e dovrebbero essere protette.
Kalehoff di Realeyes non ha detto per quali scopi specifici l’azienda utilizzerà i risultati dello studio, anche se in un’e-mail ha precisato che potrebbe trattarsi di “una varietà di casi d’uso, come la costruzione di migliori esperienze mediatiche digitali, diagnosi mediche (ad esempio, condizioni della pelle/muscoli), rilevamento di allerta per la sicurezza o strumenti robotici per supportare disturbi medici legati al riconoscimento delle espressioni facciali (come l’autismo)”.
Quando gli è stato chiesto come Realeyes definisse la “somiglianza”, ha risposto che l’azienda usa questo termine – così come “commerciale”, un’altra parola per la quale esistono definizioni presunte ma non universalmente condivise – in un modo che è “lo stesso per noi come un business generale”. Ha aggiunto: “Non abbiamo una definizione specifica diversa dall’uso standard”.
Ma per T, e per altri attori, “pubblicità” significa in genere apparire in qualche tipo di pubblicità o spot televisivo: “qualcosa”, dice T, “che viene venduto direttamente al consumatore”.
Al di fuori della stretta comprensione dell’industria dell’intrattenimento, McSherry dell’EFF mette in dubbio il significato dell’azienda: “È un’azienda commerciale che fa cose commerciali”.
Kalehoff ha inoltre dichiarato: “Se un cliente ci chiedesse di utilizzare queste immagini dello studio, insisteremmo sul consenso al 100%, sulla giusta retribuzione dei partecipanti e sulla trasparenza. Tuttavia, questo non è il nostro lavoro o quello che facciamo”.
Tuttavia, questa affermazione non è in linea con il linguaggio del contratto di licenza dei dati, che stabilisce che mentre Realeyes è il proprietario della proprietà intellettuale derivante dai dati dello studio, Meta e “le parti di Meta che agiscono per conto di Meta” hanno ampi diritti sui dati, compresi i diritti di condivisione e vendita. Ciò significa che, in ultima analisi, il modo in cui vengono utilizzati può essere fuori dalle mani di Realeyes.
Come spiegato nell’accordo, i diritti di Meta e delle parti che agiscono per suo conto comprendono anche:
- Asserire alcuni diritti sull’identità dei partecipanti (“Identificare o riconoscere l’utente … creare un modello unico del suo volto e/o della sua voce … e/o proteggere dall’impersonificazione e dall’uso improprio dell’identità”)
- Consentire ad altri ricercatori di condurre ricerche future, utilizzando i dati dello studio nel modo che ritengono più opportuno (“condurre studi e attività di ricerca future … in collaborazione con ricercatori terzi, che potrebbero utilizzare ulteriormente i dati dello studio al di fuori del controllo di Meta”).
- Creare opere derivate dai dati dello studio per qualsiasi tipo di utilizzo in qualsiasi momento (“utilizzare, distribuire, riprodurre, eseguire pubblicamente, visualizzare pubblicamente, divulgare e modificare o creare in altro modo opere derivate dai Dati dello studio, in tutto il mondo, irrevocabilmente e in perpetuo, e in tutti i formati e supporti esistenti ora o in futuro”)
L’unico limite all’utilizzo è che Meta e le parti “non utilizzeranno i dati di studio per sviluppare modelli di apprendimento automatico che generino il vostro volto o la vostra voce in qualsiasi prodotto Meta”. Tuttavia, la varietà dei possibili casi d’uso – e degli utenti – è ampia. E l’accordo fa poco per placare le specifiche ansie degli attori che “in seguito, quel database verrà usato per generare un’opera e quell’opera finirà per assomigliare molto alla performance di qualcuno”, come dice McSherry.
Quando ho chiesto a Kalehoff dell’apparente divario tra i suoi commenti e l’accordo, ha negato qualsiasi discrepanza: “Riteniamo che non ci siano contraddizioni in nessun accordo, e manteniamo il nostro impegno nei confronti degli attori, come dichiarato in tutti i nostri accordi, per proteggere pienamente la loro immagine e la loro privacy”. Kalehoff ha rifiutato di commentare il lavoro di Realeyes con i clienti, o di confermare che lo studio era in collaborazione con Meta.
Nel frattempo, Meta ha costruito dei “Codec avatar” 3D fotorealistici, che vanno ben oltre le immagini cartoon di Horizon Worlds e che richiedono dati di addestramento umano per essere perfezionati. Il CEO Mark Zuckerberg ha recentemente descritto questi avatar nel popolare podcast del ricercatore di AI Lex Fridman come il fulcro della sua visione del futuro, in cui coesistono realtà fisica, virtuale e aumentata. Egli immagina che gli avatar “diano un senso di presenza come se foste lì insieme, indipendentemente da dove vi troviate effettivamente nel mondo”.
Nonostante le numerose richieste di commento, Meta non ha risposto alle domande di MIT Technology Review, quindi non possiamo confermare per cosa utilizzerebbe i dati o chi intende per “parti che agiscono per suo conto”.
Scelta individuale, impatto collettivo
Durante gli scioperi di scrittori e attori, si è avuta la sensazione palpabile che Hollywood si stia lanciando in una nuova frontiera, che darà forma al modo in cui noi – tutti noi – ci rapporteremo con l’intelligenza artificiale. Di solito, questa frontiera viene descritta con riferimento ai diritti dei lavoratori; l’idea è che qualsiasi cosa accada qui avrà ripercussioni sui lavoratori di altri settori che sono alle prese con le conseguenze che l’intelligenza artificiale avrà sui loro mezzi di sostentamento.
Le conquiste ottenute dalla Writers Guild hanno già fornito un modello per regolare l’impatto dell’IA sul lavoro creativo. Il nuovo contratto del sindacato con gli studios limita l’uso dell’IA nelle stanze degli scrittori e stabilisce che solo gli autori umani possono essere accreditati sulle storie, il che impedisce agli studios di tutelare i diritti d’autore sul lavoro generato dall’IA e disincentiva ulteriormente l’uso dell’IA per scrivere le sceneggiature.
All’inizio di ottobre, anche il sindacato degli attori e gli studios sono tornati al tavolo delle trattative, nella speranza di fornire agli attori indicazioni simili. Ma i colloqui si sono rapidamente interrotti perché “è chiaro che il divario tra l’AMPTP (Alliance of Motion Picture and Television Producers) e la SAG-AFTRA è troppo grande”, come ha dichiarato l’associazione degli studios in un comunicato stampa. Secondo quanto riferito, uno dei punti critici è stato l’IA generativa, in particolare le modalità e i tempi con cui gli attori di sfondo dovrebbero acconsentire alla scansione del corpo.
Qualunque accordo finale si raggiunga, non vieterà l’uso dell’IA da parte degli studios: non è mai stato questo il punto. Anche gli attori che si sono opposti ai progetti di formazione sull’IA hanno opinioni più sfumate sull’uso della tecnologia. “Non escluderemo completamente l’IA”, riconosce Compte, l’attore di Breaking Bad. Piuttosto, “dobbiamo solo trovare modi che vadano a beneficio del quadro generale. Si tratta davvero di salari per le persone”.
Ma un futuro accordo, che riguarda specificamente gli studios e la SAG, non sarà applicabile alle società tecnologiche che conducono progetti di “ricerca”, come Meta e Realeyes. I progressi tecnologici creati per uno scopo – magari quelli che nascono da uno studio di “ricerca” – avranno anche applicazioni più ampie, nel cinema e non solo.
“La probabilità che la tecnologia sviluppata venga utilizzata solo per questo coinvolgimento del pubblico o avatar Codec è estremamente bassa. Non è così che funziona”, afferma McSherry dell’EFF. Ad esempio, mentre l’accordo sui dati per lo studio sulle emozioni non menziona esplicitamente l’utilizzo dei risultati per l’IA di riconoscimento facciale, McSherry ritiene che potrebbero essere utilizzati per migliorare qualsiasi tipo di IA che coinvolga volti o espressioni umane.
Inoltre, gli algoritmi di rilevamento delle emozioni sono di per sé controversi, a prescindere dal fatto che funzionino o meno come dicono gli sviluppatori. Vogliamo davvero che “i nostri volti vengano giudicati tutto il tempo in base a qualsiasi prodotto stiamo guardando?”, si chiede Posada, il professore di Yale.
Tutto ciò rende il consenso per questi ampi studi di ricerca ancora più complicato: non c’è modo per un partecipante di scegliere se partecipare o meno a casi d’uso specifici. T, per esempio, sarebbe felice se la sua partecipazione significasse migliori opzioni di avatar per i mondi virtuali, come quelli che usa con il suo Oculus, anche se non sta acconsentendo in modo specifico.
Ma cosa devono fare i singoli partecipanti allo studio, che potrebbero aver bisogno di un reddito? Che potere hanno realmente in questa situazione? E che potere hanno le altre persone, anche quelle che hanno rifiutato di partecipare, per assicurarsi di non essere colpite? La decisione di addestrare l’IA può essere individuale, ma l’impatto non lo è: è collettivo.
“Una volta che alimentano la vostra immagine e una certa quantità di immagini di persone, possono creare una varietà infinita di persone dall’aspetto simile”, dice Jessica. “Non è una violazione del tuo volto, di per sé”. Ma forse è proprio questo il punto: “Usano la tua immagine senza essere ritenuti responsabili”.
T ha considerato la possibilità che, un giorno, la ricerca a cui ha contribuito potrebbe benissimo sostituire gli attori.
Ma, almeno per ora, si tratta di un’ipotesi.
“Sarei arrabbiato”, riconosce, “ma allo stesso tempo, se non fossi io a farlo, probabilmente troverebbero un modo diverso, un modo più subdolo, senza ottenere il consenso delle persone”. Inoltre, aggiunge T, “pagavano molto bene”.