Gli sviluppatori dovrebbero agire prima che i governi ricorrano a strumenti spuntati.
Alla fine di ottobre, News Corp ha intentato una causa contro Perplexity AI, un popolare motore di ricerca AI. A prima vista, la cosa potrebbe sembrare irrilevante. Dopo tutto, l’azione legale si aggiunge a più di due dozzine di casi simili che chiedono credito, consenso o compensazione per l’uso dei dati da parte degli sviluppatori di IA. Tuttavia, questa particolare controversia è diversa, e potrebbe essere la più importante di tutte.
In gioco c’è il futuro della ricerca AI, ovvero dei chatbot che riassumono le informazioni provenienti dal web. Se la loro crescente popolarità è indicativa, questi “motori di risposta” dell’intelligenza artificiale potrebbero sostituire i motori di ricerca tradizionali come porta d’accesso predefinita a Internet. Mentre i normali chatbot di intelligenza artificiale possono riprodurre – spesso in modo inaffidabile – le informazioni apprese attraverso l’addestramento, gli strumenti di ricerca dell’intelligenza artificiale come Perplexity, Gemini di Google o l’appena rilasciato SearchGPT di OpenAI, mirano a recuperare e riconfezionare le informazioni da siti web di terzi. Restituiscono agli utenti un breve digest insieme ai link a una manciata di fonti, che vanno dai documenti di ricerca agli articoli di Wikipedia e alle trascrizioni di YouTube. Il sistema di intelligenza artificiale si occupa della lettura e della scrittura, ma le informazioni provengono dall’esterno.
Al meglio, la ricerca AI può dedurre meglio l’intento dell’utente, amplificare i contenuti di qualità e sintetizzare le informazioni provenienti da fonti diverse. Ma se la ricerca AI diventa il nostro portale principale per il web, rischia di sconvolgere un’economia digitale già precaria. Oggi la produzione di contenuti online dipende da una fragile serie di incentivi legati al traffico virtuale: annunci, abbonamenti, donazioni, vendite o esposizione del marchio. Proteggendo il web dietro un chatbot onnisciente, la ricerca AI potrebbe privare i creatori delle visite e dei “bulbi oculari” di cui hanno bisogno per sopravvivere.
Se la ricerca dell’intelligenza artificiale rompe questo ecosistema, è improbabile che la legge esistente possa essere d’aiuto. I governi sono già convinti che i contenuti stiano passando attraverso le crepe del sistema legale e stanno imparando a regolare il flusso di valore attraverso il web in altri modi. L’industria dell’IA dovrebbe sfruttare questa stretta finestra di opportunità per costruire un mercato dei contenuti più intelligente, prima che i governi ricadano in interventi inefficaci, che avvantaggiano solo pochi eletti o che ostacolano il libero flusso di idee sul web.
Il diritto d’autore non è la risposta all’interruzione della ricerca AI
News Corp sostiene che l’utilizzo dei suoi contenuti per estrarre informazioni per la ricerca AI equivale a una violazione del copyright, sostenendo che Perplexity AI “compete per i lettori e allo stesso tempo si approfitta degli editori”. Questo sentimento è probabilmente condiviso dal New York Times, che ha inviato una lettera di cessazione attività a Perplexity AI a metà ottobre.
Per alcuni aspetti, il caso contro la ricerca di IA è più forte di altri casi che riguardano l’addestramento dell’IA. Nell’addestramento, i contenuti hanno il massimo impatto quando sono ineccepibili e ripetitivi; un modello di IA apprende comportamenti generalizzabili osservando modelli ricorrenti in vasti set di dati e il contributo di ogni singolo contenuto è limitato. Nella ricerca, il contenuto ha il massimo impatto quando è nuovo o distintivo, o quando il suo creatore ha un’autorevolezza unica. Per questo motivo, la ricerca AI mira a riprodurre caratteristiche specifiche dai dati sottostanti, a invocare le credenziali del creatore originale e a sostituirsi al contenuto originale.
Tuttavia, News Corp deve affrontare una battaglia in salita per dimostrare che Perplexity AI viola il copyright quando elabora e riassume le informazioni. Il copyright non protegge i semplici fatti o il lavoro creativo, giornalistico e accademico necessario per produrli. I tribunali statunitensi hanno storicamente favorito gli imputati del settore tecnologico che utilizzano i contenuti per scopi sufficientemente trasformativi, e questo schema sembra destinato a continuare. E se News Corp dovesse avere successo, le implicazioni si estenderebbero ben oltre Perplexity AI. Limitare l’uso di contenuti ricchi di informazioni per scopi non creativi o non espressivi potrebbe limitare l’accesso a dati abbondanti, diversi e di alta qualità, ostacolando sforzi più ampi per migliorare la sicurezza e l’affidabilità dei sistemi di IA.
I governi stanno imparando a regolamentare la distribuzione di valore online
Se la legislazione vigente non è in grado di risolvere queste sfide, i governi potrebbero ricorrere a nuove leggi. Incoraggiati dalle recenti controversie con le piattaforme di ricerca tradizionali e con i social media, i governi potrebbero perseguire riforme aggressive sul modello dei codici di contrattazione dei media varati in Australia e Canada o proposti in California e dal Congresso degli Stati Uniti. Queste riforme obbligano le piattaforme designate a pagare alcune organizzazioni di media per la visualizzazione dei loro contenuti, ad esempio in frammenti di notizie o pannelli di conoscenza. L’UE ha imposto obblighi simili attraverso riforma del copyright copyright, mentre il Regno Unito ha introdotto un’ampia concorrenza concorrenza che potrebbero essere utilizzati per imporre la contrattazione.
In breve, i governi hanno dimostrato di essere disposti a regolare il flusso di valore tra produttori e aggregatori di contenuti, abbandonando la loro tradizionale riluttanza a interferire con Internet.
Tuttavia, la contrattazione obbligatoria è una soluzione poco incisiva per un problema complesso. Queste riforme favoriscono una classe ristretta di organizzazioni giornalistiche, partendo dal presupposto che piattaforme come Google e Meta sfruttano gli editori. In pratica, non è chiaro quanto del traffico delle loro piattaforme sia veramente attribuibile alle notizie, con stime che vanno dal 2% al 35% delle query di ricerca e appena il 3% dei feed dei social media. Allo stesso tempo, le piattaforme offrono un vantaggio significativo agli editori amplificando i loro contenuti, e c’è poco consenso sull’equa ripartizione di questo valore bidirezionale. In modo controverso, i quattro codici di contrattazione regolano la semplice indicizzazione o il collegamento a contenuti giornalistici, non solo la loro riproduzione. Questo minaccia la “capacità di collegarsi liberamente” che è alla base del web. Inoltre, le regole di contrattazione si sono concentrate sui media tradizionali – solo 1.400 pubblicazioni Canada, 1.500 in UE e 62 organizzazioni in Australia – ignorando gli innumerevoli creatori e utenti che ogni giorno contribuiscono con post, blog, immagini, video, podcast e commenti al traffico della piattaforma.
Tuttavia, pur con tutte le sue insidie, la contrattazione obbligatoria potrebbe diventare una risposta interessante alla ricerca dell’intelligenza artificiale. Innanzitutto, il caso è più solido. A differenza della ricerca tradizionale, che indicizza, collega e visualizza brevi frammenti di fonti per aiutare l’utente a decidere se cliccare o meno, la ricerca AI potrebbe sostituire direttamente i riassunti generati al materiale di base, sottraendo potenzialmente traffico, occhi e visibilità ai siti web a valle. Più di un terzo delle sessioni di Google si conclude senza un clic, e la percentuale è probabilmente destinata ad aumentare in modo significativo nella ricerca AI. La ricerca AI semplifica anche il calcolo economico: poiché solo poche fonti contribuiscono a ogni risposta, le piattaforme e gli arbitri possono tracciare in modo più accurato la percentuale di coinvolgimento e di guadagno di specifici creatori.
In definitiva, il diavolo sta nei dettagli. Regole di contrattazione obbligatoria ben intenzionate ma mal concepite potrebbero fare poco per risolvere il problema, proteggere solo pochi eletti e potenzialmente paralizzare il libero scambio di informazioni sul web.
L’industria ha una finestra ristretta per costruire un sistema di ricompense più equo
Tuttavia, la semplice minaccia di intervento potrebbe avere un impatto maggiore della riforma vera e propria. Le aziende di IA riconoscono tranquillamente il rischio che le controversie si trasformino in regolamenti. Per esempio, Perplexity AI, OpenAI e Google stanno già siglando accordi con editori e piattaforme di contenuti, alcuni dei quali riguardano l’addestramento dell’IA e altri si concentrano sulla ricerca dell’IA. Ma come le prime leggi sulla contrattazione, questi accordi avvantaggiano solo poche aziende, alcune delle quali (come Reddit) non si sono ancora impegnate a condividere i ricavi con i propri creatori.
Questa politica di acquiescenza selettiva è insostenibile. Trascura la stragrande maggioranza dei creatori online, che non possono prontamente scegliere di non partecipare alla ricerca dell’intelligenza artificiale e che non hanno il potere contrattuale di un editore storico. Toglie l’urgenza alla riforma, tranquillizzando i critici più accaniti. Legittima poche aziende di IA attraverso accordi commerciali riservati e intricati, rendendo difficile per i nuovi entranti ottenere pari condizioni o pari indennità e potenzialmente radicando una nuova ondata di monopolisti della ricerca. A lungo termine, potrebbe creare incentivi perversi per le imprese di IA a favorire fonti a basso costo e di bassa qualità rispetto a notizie o contenuti di alta qualità ma più costosi, promuovendo una cultura del consumo acritico di informazioni.
L’industria dell’IA dovrebbe invece investire in strutture che premino i creatori di ogni tipo per la condivisione di contenuti di valore. Da YouTube a TikTok a X, le piattaforme tecnologiche hanno dimostrato di essere in grado di amministrare nuove ricompense per i creatori distribuiti in complessi mercati di contenuti. In effetti, una monetizzazione più equa dei contenuti quotidiani è un obiettivo fondamentale del movimento “web3”, celebrato dai venture capitalist. Lo stesso ragionamento vale per la ricerca AI. Se le query producono un coinvolgimento redditizio ma gli utenti non cliccano sulle fonti, le piattaforme di ricerca AI commerciali dovrebbero trovare il modo di attribuire quel valore ai creatori e di condividerlo su scala.
Naturalmente, è possibile che la nostra economia digitale sia stata danneggiata fin dall’inizio. Il sostentamento con le entrate pubblicitarie a cascata potrebbe essere insostenibile, e l’economia dell’attenzione ha inflitto danni reali alla privacy, all’integrità e alla democrazia online. Sostenere notizie di qualità e contenuti freschi potrebbe richiedere altre forme di investimento o incentivi.
Ma non dobbiamo rinunciare alla prospettiva di un’economia digitale più equa. Se non altro, la ricerca dell’IA rende più urgente la contrattazione dei contenuti, ma la rende anche più fattibile che mai. I pionieri dell’IA dovrebbero cogliere questa opportunità per gettare le basi di un sistema di ricompense intelligente, equo e scalabile. Se non lo fanno, i governi hanno ora il quadro di riferimento – e la fiducia – per imporre la propria visione del valore condiviso.
Benjamin Brooks è borsista presso il Berkman Klein Center di Harvard e sta analizzando la risposta normativa e legislativa all’IA. In precedenza ha diretto le politiche pubbliche di Stability AI, uno sviluppatore di modelli aperti per la generazione di immagini, linguaggi, audio e video. Le sue opinioni non rappresentano necessariamente quelle di alcuna organizzazione affiliata, passata o presente.