STEPHANIE ARNETT/MITTR | ENVATO

L’industria tech non riesce a trovare un accordo sul significato di IA open-source. Questo è un problema

La risposta potrebbe determinare chi avrà il compito di plasmare il futuro della tecnologia.

Improvvisamente, “open source” è l’ultima parola d’ordine negli ambienti dell’intelligenza artificiale. Meta si è impegnata a creare un’intelligenza artificiale generale open source. Elon Musk ha fatto causa a OpenAI per la mancanza di modelli di intelligenza artificiale open source.

Nel frattempo, un numero crescente di leader e aziende del settore tecnologico si sta proponendo come campione dell’open-source.

Ma c’è un problema fondamentale: nessuno è d’accordo su cosa significhi “IA open-source”.

A prima vista, l’IA open-source promette un futuro in cui chiunque potrà partecipare allo sviluppo della tecnologia. Questo potrebbe accelerare l’innovazione, aumentare la trasparenza e dare agli utenti un maggiore controllo su sistemi che presto potrebbero rimodellare molti aspetti della nostra vita. Ma che cos’è? Cosa rende un modello di IA open source e cosa lo esclude?

Le risposte potrebbero avere ramificazioni significative per il futuro della tecnologia. Finché l’industria tecnologica non avrà trovato una definizione, le aziende più potenti potranno facilmente piegare il concetto alle proprie esigenze, e potrebbe diventare uno strumento per consolidare il dominio degli attuali leader.

In questo contesto si inserisce l’Open Source Initiative (OSI), che si autoproclama arbitro di ciò che significa essere open source. Fondata nel 1998, l’organizzazione non profit è depositaria della Open Source Definition, un insieme di regole ampiamente accettate che determinano se un software può essere considerato open source.

Ora l’organizzazione ha riunito un gruppo di 70 persone tra ricercatori, avvocati, politici, attivisti e rappresentanti di grandi aziende tecnologiche come Meta, Google e Amazon per elaborare una definizione operativa di IA open-source.

La comunità open-source è comunque una grande casa, che comprende tutto, dagli hacktivisti alle aziende Fortune 500. Sebbene vi sia un ampio accordo sui principi generali, afferma Stefano Maffulli, direttore esecutivo dell’OSI, è sempre più evidente che il diavolo si nasconde nei dettagli. Con così tanti interessi in competizione da considerare, trovare una soluzione che soddisfi tutti e garantisca che le aziende più grandi stiano al gioco non è un compito facile.

Criteri confusi

La mancanza di una definizione univoca non ha impedito alle aziende tecnologiche di adottare il termine.

Lo scorso luglio Meta ha reso liberamente disponibile il suo modello Llama 2, definito open source, e ha un’esperienza consolidata di rilascio pubblico di tecnologie AI. “Sosteniamo lo sforzo dell’OSI di definire l’IA open source e siamo ansiosi di continuare a partecipare al loro processo a beneficio della comunità open source di tutto il mondo”, ci ha detto Jonathan Torres, associate general counsel di Meta per l’IA, l’open source e le licenze.

Ciò è in netto contrasto con la rivale OpenAI, che nel corso degli anni ha condiviso sempre meno dettagli sui suoi modelli principali, adducendo problemi di sicurezza. “Apriamo l’open-source di potenti modelli di IA solo dopo aver valutato attentamente i benefici e i rischi, tra cui l’uso improprio e l’accelerazione”, ha dichiarato un portavoce.

Anche altre aziende leader nel settore dell’intelligenza artificiale, come Stability AI e Aleph Alpha, hanno rilasciato modelli descritti come open source, e Hugging Face ospita un’ampia libreria di modelli di intelligenza artificiale liberamente disponibili.

Mentre Google ha adottato un approccio più chiuso con i suoi modelli più potenti, come Gemini e PaLM 2, i modelli Gemma rilasciati il mese scorso sono liberamente accessibili e progettati per andare a braccetto con Llama 2, anche se l’azienda li ha descritti come “aperti” piuttosto che “open source”. 

Ma c’è un notevole disaccordo sul fatto che uno di questi modelli possa davvero essere definito open source. Tanto per cominciare, sia Llama 2 che Gemma sono dotati di licenze che limitano l’uso che gli utenti possono fare dei modelli. Questo è un anatema per i principi dell’open source: una delle clausole chiave della Open Source Definition vieta l’imposizione di qualsiasi restrizione basata sui casi d’uso.

I criteri sono confusi anche per i modelli che non presentano questo tipo di condizioni. Il concetto di open source è stato concepito per garantire che gli sviluppatori potessero utilizzare, studiare, modificare e condividere il software senza restrizioni. Ma l’IA funziona in modo fondamentalmente diverso e i concetti chiave non si traducono in modo chiaro dal software all’IA, dice Maffulli.

Uno degli ostacoli più grandi è il numero enorme di ingredienti che entrano nei modelli di IA di oggi. Secondo Maffulli, tutto ciò di cui si ha bisogno per manipolare un software è il codice sorgente sottostante. Ma, a seconda dell’obiettivo, per smanettare con un modello di IA potrebbe essere necessario accedere al modello addestrato, ai suoi dati di addestramento, al codice usato per preelaborare questi dati, al codice che regola il processo di addestramento, all’architettura sottostante del modello o a una serie di altri dettagli più sottili.

Quali siano gli ingredienti necessari per studiare e modificare in modo significativo i modelli rimane aperto all’interpretazione. “Abbiamo identificato le libertà o i diritti fondamentali che vogliamo poter esercitare”, dice Maffulli. “La meccanica di come esercitare questi diritti non è chiara”.

Risolvere questo dibattito sarà essenziale se la comunità dell’IA vuole raccogliere gli stessi benefici che gli sviluppatori di software hanno ottenuto dall’open source, afferma Maffulli, che è stato costruito su un ampio consenso sul significato del termine. “Avere [una definizione] rispettata e adottata da un’ampia fetta del settore fa chiarezza”, afferma Maffulli. “E con la chiarezza si riducono i costi di conformità, si riducono gli attriti e si condivide la comprensione”.

Il punto più difficile è quello dei dati. Tutte le principali aziende di IA hanno semplicemente rilasciato modelli pre-addestrati, senza i set di dati su cui sono stati addestrati. Secondo Maffulli, per le persone che spingono per una definizione più rigorosa di IA open-source, questo limita seriamente gli sforzi per modificare e studiare i modelli, squalificandoli automaticamente come open source.

Altri hanno sostenuto che una semplice descrizione dei dati è spesso sufficiente per sondare un modello, dice Maffulli, e non è necessario riqualificare da zero per apportare modifiche. I modelli pre-addestrati vengono abitualmente adattati attraverso un processo noto come fine-tuning, in cui vengono parzialmente ri-addestrati su un set di dati più piccolo, spesso specifico per l’applicazione.

Llama 2 di Meta è un caso emblematico, afferma Roman Shaposhnik, amministratore delegato dell’azienda di intelligenza artificiale open-source Ainekko e vicepresidente degli affari legali della Apache Software Foundation, coinvolto nel processo OSI. Mentre Meta ha rilasciato solo un modello preaddestrato, una fiorente comunità di sviluppatori lo ha scaricato e adattato, condividendo le proprie modifiche.

“Le persone lo usano in tutti i tipi di progetti. C’è un intero ecosistema intorno ad esso”, afferma. “Dobbiamo quindi chiamarlo in qualche modo. È semiaperto? È socchiuso?”.

Sebbene sia tecnicamente possibile modificare un modello senza i dati di addestramento originali, limitare l’accesso a un ingrediente chiave non è proprio nello spirito dell’open source, afferma Zuzanna Warso, direttore della ricerca dell’organizzazione no-profit Open Future, che partecipa alle discussioni dell’OSI. È inoltre discutibile se sia possibile esercitare davvero la libertà di studiare un modello senza sapere su quali informazioni è stato addestrato.

“È una componente cruciale dell’intero processo”, afferma. “Se ci interessa l’apertura, dovremmo anche preoccuparci dell’apertura dei dati”.

La botte piena e la moglie ubriaca

È importante capire perché le aziende che si propongono come campioni dell’open-source sono riluttanti a consegnare i dati di addestramento. Secondo Warso, l’accesso a dati di addestramento di alta qualità è un ostacolo importante per la ricerca sull’IA e un vantaggio competitivo per le aziende più grandi che sono desiderose di mantenere.

Allo stesso tempo, l’open source comporta una serie di vantaggi che queste aziende vorrebbero vedere tradotti nell’IA. A livello superficiale, il termine “open source” ha una connotazione positiva per molte persone, quindi impegnarsi nel cosiddetto “open washing” può essere una facile vittoria in termini di PR, afferma Warso.

Può anche avere un impatto significativo sui loro profitti. Gli economisti della Harvard Business School hanno recentemente scoperto che il software open-source ha fatto risparmiare alle aziende quasi 9.000 miliardi di dollari in costi di sviluppo, consentendo loro di costruire i propri prodotti sulla base di software libero di alta qualità anziché scriverlo direttamente.

Per le aziende più grandi, l’open-sourcing del proprio software in modo che possa essere riutilizzato e modificato da altri sviluppatori può aiutare a costruire un potente ecosistema intorno ai loro prodotti, afferma Warso. L’esempio classico è l’open-sourcing del sistema operativo mobile Android di Google, che ha consolidato la sua posizione dominante nel cuore della rivoluzione degli smartphone. Mark Zuckerberg di Meta ha parlato esplicitamente di questa motivazione nelle telefonate di presentazione dei risultati, affermando che “il software open-source spesso diventa uno standard del settore e quando le aziende si standardizzano nel costruire con il nostro stack, diventa più facile integrare nuove innovazioni nei nostri prodotti”.

Sembra inoltre che l’IA open-source possa ricevere un trattamento normativo favorevole in alcuni luoghi, afferma Warso, indicando la legge sull’IA recentemente approvata dall’UE, che esenta alcuni progetti open-source da alcuni dei suoi requisiti più severi.

Considerando l’insieme, è chiaro che condividere i modelli preaddestrati ma limitare l’accesso ai dati necessari per costruirli ha un buon senso commerciale, afferma Warso. Tuttavia, sembra che le aziende cerchino di avere la botte piena e la moglie ubriaca, aggiunge. E se questa strategia contribuisce a rafforzare le posizioni già dominanti delle grandi aziende tecnologiche, è difficile capire come ciò si concili con l’etica di fondo dell’open source.

“Vediamo l’apertura come uno degli strumenti per sfidare la concentrazione del potere”, afferma Warso. “Se la definizione deve aiutare a sfidare queste concentrazioni di potere, allora la questione dei dati diventa ancora più importante”.

Shaposhnik ritiene che un compromesso sia possibile. Una quantità significativa di dati utilizzati per addestrare i modelli più grandi proviene già da archivi aperti come Wikipedia o Common Crawl, che raccoglie dati dal web e li condivide liberamente. Secondo Shoshapnik, le aziende potrebbero semplicemente condividere le risorse aperte utilizzate per addestrare i loro modelli, rendendo possibile ricreare un’approssimazione ragionevole che dovrebbe consentire alle persone di studiare e comprendere i modelli.

La mancanza di chiarezza sul fatto che la formazione su opere d’arte o scritti estrapolati da Internet violi i diritti di proprietà del creatore può causare complicazioni legali, afferma Aviya Skowron, responsabile delle politiche e dell’etica del gruppo di ricerca sull’intelligenza artificiale senza scopo di lucro EleutherAI, anch’esso coinvolto nel processo OSI. Questo fa sì che gli sviluppatori siano diffidenti nei confronti dell’apertura dei loro dati.

Stefano Zacchiroli, professore di informatica al Politecnico di Parigi che sta contribuendo alla definizione dell’OSI, apprezza la necessità di pragmatismo. La sua opinione personale è che una descrizione completa dei dati di addestramento di un modello sia il minimo indispensabile per poterlo definire open source, ma riconosce che definizioni più rigide di IA open source potrebbero non avere un ampio appeal.

In ultima analisi, la comunità deve decidere cosa sta cercando di ottenere, afferma Zacchiroli: “State solo seguendo la direzione del mercato in modo da non cooptare essenzialmente il termine ‘open-source AI’, o state cercando di spingere il mercato verso una maggiore apertura e di fornire più libertà agli utenti?”.

Qual è lo scopo dell’open source?

Secondo Sarah Myers West, co-direttrice esecutiva dell’AI Now Institute, è discutibile quanto una definizione di IA open-source possa livellare il campo di gioco. È coautrice di un documento pubblicato nell’agosto 2023 che denuncia la mancanza di apertura in molti progetti di IA open-source. Ma ha anche evidenziato che le grandi quantità di dati e di potenza di calcolo necessarie per addestrare l’IA all’avanguardia creano barriere strutturali più profonde per gli operatori più piccoli, a prescindere dall’apertura dei modelli.

Myers West ritiene che ci sia anche una mancanza di chiarezza su ciò che si spera di ottenere rendendo l’IA open source. “È la sicurezza, la possibilità di condurre ricerche accademiche, il tentativo di promuovere una maggiore concorrenza?”, chiede. “Dobbiamo essere molto più precisi su quale sia l’obiettivo e su come l’apertura di un sistema cambi il perseguimento di tale obiettivo”.

L’OSI sembra intenzionata a evitare queste conversazioni. La bozza di definizione cita l’autonomia e la trasparenza come benefici chiave, ma Maffulli ha esitato quando gli è stato chiesto di spiegare perché l’OSI apprezza questi concetti. Il documento contiene anche una sezione intitolata “Questioni al di fuori dell’ambito di applicazione” che chiarisce che la definizione non entrerà nel merito di questioni relative all’IA “etica, affidabile o responsabile”.

Secondo Maffulli, storicamente la comunità open-source si è concentrata sulla possibilità di condividere il software senza attriti, evitando di impantanarsi in dibattiti sull’uso che si deve fare di quel software. “Non è il nostro lavoro”, afferma.

Ma queste domande non possono essere ignorate, dice Warso, per quanto si sia cercato di fare nel corso dei decenni. L’idea che la tecnologia sia neutrale e che argomenti come l’etica siano “fuori portata” è un mito, aggiunge. Sospetta che sia un mito da sostenere per evitare che la coalizione della comunità open-source si sfaldi. “Credo che la gente si renda conto che non è vero [il mito], ma ne abbiamo bisogno per andare avanti”, dice Warso.

Oltre all’OSI, altri hanno adottato un approccio diverso. Nel 2022, un gruppo di ricercatori ha introdotto le Licenze AI Responsabili (RAIL), che sono simili alle licenze open-source ma includono clausole che possono limitare casi d’uso specifici. L’obiettivo, spiega Danish Contractor, un ricercatore di intelligenza artificiale che ha co-creato la licenza, è quello di consentire agli sviluppatori di evitare che il loro lavoro venga utilizzato per scopi che considerano inappropriati o non etici.

“Come ricercatore, non vorrei che il mio materiale fosse usato in modi che potrebbero essere dannosi”, afferma. E non è il solo: una recente analisi condotta da lui e dai suoi colleghi sulla popolare piattaforma di hosting di modelli della startup Hugging Face ha rilevato che il 28% dei modelli utilizza RAIL.

La licenza allegata da Google alla sua Gemma segue un approccio simile. Le sue condizioni d’uso elencano vari casi d’uso vietati e considerati “dannosi”, il che riflette il suo “impegno a sviluppare l’IA in modo responsabile”, ha dichiarato l’azienda in un recente post sul blog. Anche l’Allen Institute for AI ha sviluppato un proprio approccio alle licenze aperte. Le sue ImpACTLicenze  limitano la ridistribuzione di modelli e dati in base ai loro rischi potenziali.

Data la diversità dell’IA rispetto al software convenzionale, un certo livello di sperimentazione con diversi gradi di apertura è inevitabile e probabilmente positivo per il settore, sostiene Luis Villa, cofondatore e responsabile legale della società di gestione del software open source Tidelift. Ma teme che una proliferazione di licenze “aperte” che sono reciprocamente incompatibili possa annullare la collaborazione senza attrito che ha reso l’open source così vincente, rallentando l’innovazione nell’IA, riducendo la trasparenza e rendendo più difficile per i piccoli operatori costruire sul lavoro degli altri.

In definitiva, Villa ritiene che la comunità debba riunirsi attorno a un unico standard, altrimenti l’industria lo ignorerà e deciderà da sola cosa significa “aperto”. Tuttavia, non invidia il lavoro dell’OSI. Quando ha elaborato la definizione di software open-source, ha avuto il lusso del tempo e di uno scarso controllo esterno. Oggi l’IA è nel mirino delle grandi aziende e delle autorità di regolamentazione.

Ma se la comunità open-source non riesce a trovare una definizione, e in fretta, qualcun altro ne troverà una adatta alle proprie esigenze. “Riempiranno questo vuoto”, dice Villa. “Mark Zuckerberg ci dirà cosa pensa che significhi ‘open’ e ha un megafono molto grande”.

Related Posts
Total
0
Share