STEPHANIE ARNETT/MITTR | ENVATO, MIDJOURNEY (VOLTO)

Le leggi sull’intelligenza artificiale negli USA le faranno i giudici, non i politici

I politici lottano per limitare i danni dell’IA e gli avvocati che si occupano di questioni tecnologiche prosperano.

È sempre più chiaro che saranno i tribunali, e non i politici, a stabilire i limiti dello sviluppo e dell’utilizzo dell’intelligenza artificiale negli Stati Uniti. 

La scorsa settimana, la Federal Trade Commission ha aperto un’indagine per verificare se OpenAI avesse violato le leggi sulla protezione dei consumatori, effettuando lo scraping dei dati online delle persone per addestrare il suo popolare chatbot ChatGPT. Nel frattempo, artisti, autori e la società di immagini Getty stanno facendo causa a società di IA come OpenAI, Stability AI e Meta, sostenendo che hanno violato le leggi sul copyright addestrando i loro modelli sulle loro opere senza fornire alcun riconoscimento o pagamento. 

Se queste cause dovessero avere successo, potrebbero costringere OpenAI, Meta, Microsoft e altri a cambiare il modo in cui l’IA viene costruita, addestrata e utilizzata in modo che sia più giusta ed equa.  

Potrebbero nascere anche nuovi sistemi per compensare artisti, autori e altri soggetti per l’utilizzo delle loro opere come dati di addestramento per i modelli di IA, attraverso licenze e royalties.

Il boom dell’IA generativa ha riacceso l’entusiasmo dei politici americani per l’approvazione di leggi specifiche sull’IA. Tuttavia, è improbabile che una legge di questo tipo venga approvata nel corso del prossimo anno, considerano i contrasti nel Congresso e l’intensa attività di lobbying da parte delle aziende tecnologiche, afferma Ben Winters, consulente senior dell’Electronic Privacy Information Center. Anche il tentativo più importante di creare nuove regole per l’IA, il SAFE Innovation framework del senatore Chuck Schumer, non include alcuna proposta politica specifica.  

“Sembra che il percorso più semplice verso un regolamento sull’IA sia quello di iniziare con le leggi esistenti”, afferma Sarah Myers West, amministratore delegato del gruppo di ricerca AI Now Institute. 

E questo significa azioni legali. 

Cause legali a destra e a manca

Le leggi esistenti hanno fornito molte armi a coloro che sostengono che i loro diritti sono stati lesi dalle aziende di IA.  

Nell’ultimo anno, queste aziende sono state colpite da un’ondata di cause legali, la più recente delle quali è stata intentata dalla comica e autrice Sarah Silverman, la quale sostiene che OpenAI e Meta hanno prelevato illegalmente da Internet il suo materiale protetto da copyright per addestrare i loro modelli. Le sue rivendicazioni sono simili a quelle degli artisti in un’altra class action che sostiene che un popolare software di generazione di immagini per l’intelligenza artificiale ha utilizzato le loro immagini protette da copyright senza consenso. Anche Copilot, lo strumento di programmazione assistita dall’intelligenza artificiale di Microsoft, OpenAI e GitHub, sta affrontando un’azione legale collettiva in cui si sostiene che si basa su una “pirateria software su scala senza precedenti”, poiché viene addestrato su codice di programmazione esistente estratto da siti web. 

Nel frattempo, la Federal Trade Commission (FTC) sta indagando per capire se le pratiche di OpenAI in materia di sicurezza dei dati e di privacy siano sleali e ingannevoli e se l’azienda abbia causato danni, anche di reputazione, ai consumatori quando ha addestrato i suoi modelli di intelligenza artificiale. L’azienda ha prove concrete a sostegno delle sue preoccupazioni: OpenAI ha subito una violazione della sicurezza all’inizio di quest’anno, dopo che un bug nel sistema ha causato la fuga della cronologia delle chat e delle informazioni sui pagamenti degli utenti. Inoltre, i modelli linguistici dell’IA spesso producono contenuti imprecisi e inventati, a volte riguardanti le persone.  

OpenAI è ottimista riguardo all’indagine della FTC, almeno in pubblico. Contattata per un commento, l’azienda ha condiviso un messaggio su Twitter dell’amministratore delegato Sam Altman, in cui afferma che l’azienda è “certa di rispettare le leggi”. 

Un’agenzia come la FTC può portare le aziende in tribunale, far rispettare gli standard del settore e introdurre migliori pratiche commerciali, sostiene Marc Rotenberg, presidente e fondatore del Center for AI and Digital Policy (CAIDP), un’organizzazione non-profit. A marzo il CAIDP ha presentato un reclamo alla FTC chiedendo di indagare su OpenAI. Secondo Myers West, l’agenzia ha il potere di creare nuove regole che indichino alle aziende di IA cosa sono o non sono autorizzate a fare. 

La FTC potrebbe richiedere a OpenAI di pagare multe o di cancellare tutti i dati ottenuti illegalmente e di eliminare gli algoritmi che hanno utilizzato i dati raccolti, afferma Rotenberg. Nel caso più estremo, ChatGPT potrebbe essere messo offline. Esiste un precedente: nel 2022 l’agenzia ha imposto all’azienda dietetica Weight Watchers di cancellare i propri dati e algoritmi dopo aver raccolto illegalmente i dati dei bambini. 

Anche altre agenzie governative potrebbero avviare le proprie indagini. Il Consumer Financial Protection Bureau, ad esempio, ha segnalato che sta esaminando l’uso dei chatbot IA nel settore bancario. E se l’IA generativa dovesse giocare un ruolo decisivo nelle prossime elezioni presidenziali statunitensi del 2024, anche la Federal Election Commission potrebbe indagare, afferma Winters. 

Nel frattempo, dovremmo iniziare a vedere i risultati delle azioni legali, anche se potrebbero volerci almeno un paio d’anni prima che le class action e le indagini della FTC arrivino in tribunale.

Secondo Mehtab Khan, borsista presso la Yale Law School, specializzato in proprietà intellettuale, governance dei dati ed etica dell’IA, molte delle cause intentate quest’anno saranno respinte da un giudice perché troppo ampie. Ma hanno comunque una funzione importante. Gli avvocati stanno gettando un grande rete per vedere cosa rimane incagliato. Ciò consente di avviare cause giudiziarie più precise che potrebbero indurre le aziende a modificare il modo in cui costruiscono e utilizzano i loro modelli di IA, aggiunge Khan.  

Inoltre, secondo Khan, le cause legali potrebbero anche costringere le aziende a migliorare le pratiche di documentazione dei dati. Al momento, le aziende tecnologiche hanno un’idea molto rudimentale dei dati che entrano nei loro modelli di intelligenza artificiale. Una migliore documentazione di come hanno raccolto e utilizzato i dati potrebbe far emergere eventuali pratiche illegali, ma potrebbe anche aiutarle a difendersi in tribunale. 

La storia si ripete  

Non è insolito che le cause legali producano risultati prima che entrino in vigore altre forme di regolamentazione: in effetti, è proprio così che gli Stati Uniti hanno gestito le nuove tecnologie in passato, sostiene Khan.  

Il suo approccio differisce da quello di altri Paesi occidentali. Mentre l’UE cerca di prevenire i peggiori danni dell’IA in modo proattivo, l’approccio americano è più reattivo. Gli Stati Uniti aspettano che i danni emergano prima di regolamentare, afferma Amir Ghavi, socio dello studio legale Fried Frank. Ghavi rappresenta Stability AI, l’azienda che sta dietro l’AI open-source Stable Diffusion per la generazione di immagini, in tre cause sul copyright.  

“È una posizione pro-capitalista”, afferma Ghavi. “Favorisce l’innovazione. Dà ai creatori e agli inventori la libertà di essere un po’ più audaci nell’immaginare nuove soluzioni”.  

Secondo Joseph Saveri, fondatore di uno studio legale specializzato in antitrust e class action, e Matthew Butterick, avvocato, le cause collettive sul diritto d’autore e sulla privacy potrebbero far luce sul funzionamento degli algoritmi di IA “a scatola chiusa” e potrebbero contribuire alla creazione di nuovi modi per indennizzare artisti e autori per l’utilizzo delle loro opere nei modelli di IA. 

Sono a capo delle cause contro GitHub e Microsoft, OpenAI, Stability AI e Meta. Saveri e Butterick rappresentano Silverman, parte di un gruppo di autori che sostengono che le aziende tecnologiche hanno addestrato i loro modelli linguistici sui loro libri protetti da copyright. I modelli di intelligenza artificiale generativa vengono addestrati utilizzando vaste serie di dati di immagini e testi prelevati da Internet. Questo include inevitabilmente dati protetti da copyright. Gli autori, gli artisti e i programmatori sostengono che le aziende tecnologiche che hanno fatto lo scraping della loro proprietà intellettuale senza consenso o attribuzione dovrebbero risarcirli.  

“C’è un vuoto in cui non c’è ancora una norma di legge, e noi stiamo portando la legge dove serve”, dice Butterick. Se le tecnologie di intelligenza artificiale oggetto delle cause sono nuove, non lo sono invece le questioni legali che le riguardano e il team si affida alla “buona vecchia” legge sul copyright.

Butterick e Saveri citano come esempio Napster, il sistema di condivisione di musica peer-to-peer. L’azienda è stata citata in giudizio dalle case discografiche per violazione del diritto d’autore e ha portato a un caso emblematico sul “fair use” (uso corretto) della musica.  

L’accordo su Napster ha spianato la strada ad aziende come Apple, Spotify e altre per iniziare a creare nuovi accordi basati sulle licenze, afferma Butterick. La coppia spera che anche le loro azioni legali aprano la strada a una soluzione di licenza in cui artisti, scrittori e altri detentori di diritti d’autore possano essere pagati per l’utilizzo dei loro contenuti in un modello di intelligenza artificiale, in modo simile al sistema in vigore nell’industria musicale per il campionamento delle canzoni. Le aziende dovrebbero inoltre chiedere un’autorizzazione esplicita per l’utilizzo di contenuti protetti da copyright nei set di addestramento. 

Le aziende tecnologiche hanno trattato i dati protetti da copyright disponibili pubblicamente su Internet come soggetti al “fair use” (uso corretto) ai sensi della legge sul copyright degli Stati Uniti, che consentirebbe loro di utilizzarli senza chiedere prima l’autorizzazione. I detentori di copyright non sono d’accordo. Secondo Ghavi, le azioni collettive determineranno probabilmente chi ha ragione. 

Questo è solo l’inizio di un nuovo boom per gli avvocati del settore tecnologico. Gli esperti con cui MIT Technology Review ha parlato concordano sul fatto che le aziende tecnologiche dovranno probabilmente affrontare cause sulla privacy e sui dati biometrici, come le immagini dei volti delle persone o i filmati che le ritraggono mentre parlano. Prisma Labs, l’azienda dietro il popolare programma di avatar AI Lensa, sta già affrontando una causa collettiva per il modo in cui ha raccolto i dati biometrici degli utenti.  

Ben Winters ritiene che assisteremo anche a un aumento delle cause sulla responsabilità del prodotto e sulla Section 230, che determinerà se le aziende di IA sono responsabili se i loro prodotti si guastano e se devono essere responsabili per i contenuti prodotti dai loro modelli di IA.

“I processi di contenzioso possono essere un oggetto contundente per il cambiamento sociale, ma possono comunque essere molto efficaci”, afferma Saveri. “E nessuno sta facendo pressioni su Matthew Butterick o su di me”.

Related Posts
Total
0
Share