
La spesa dell’azienda chiarisce quanto voglia plasmare le nuove regole della politica governativa in materia di IA.
OpenAI ha speso 1,76 milioni di dollari in attività di lobbying governativo nel 2024 e 510.000 dollari solo negli ultimi tre mesi dell’anno, secondo una nuova dichiarazione depositata il 22 gennaio: un salto significativo rispetto al 2023, quando l’azienda aveva speso solo 260.000 dollari a Capitol Hill.
L’azienda ha anche rivelato la presenza di una nuova lobbista interna, Meghan Dorn, che ha lavorato per cinque anni per il senatore Lindsey Graham e ha iniziato a lavorare per OpenAI in ottobre. La documentazione mostra anche l’attività relativa a due nuovi atti legislativi negli ultimi mesi dell’anno: l’AI Advancement and Reliability Act della Camera, che istituirebbe un centro governativo per la ricerca sull’IA, e il Future of Artificial Intelligence Innovation Act del Senato, che creerebbe test di riferimento condivisi per i modelli di IA.
OpenAI non ha risposto alle domande sulle sue attività di lobbying.
Ma forse ancora più importante, la divulgazione è un chiaro segnale dell’arrivo dell’azienda come attore politico, mentre si conclude il suo primo anno di attività di lobbying e inizia il controllo repubblicano di Washington. Sebbene la spesa di OpenAI per l’attività di lobbying sia ancora inferiore a quella dei suoi colleghi – Meta è in cima alla lista di chi spende per le Big Tech, con più di 24 milioni di dollari nel 2024 – l’aumento arriva mentre l’azienda e altre società di IA hanno contribuito a ridisegnare la politica in materia di IA.
Negli ultimi anni, la politica in materia di IA è stata una sorta di risposta “alla rinfusa” ai rischi posti dai deepfakes e dalla disinformazione. Nell’ultimo anno, però, le aziende che si occupano di IA hanno iniziato a considerare il successo della tecnologia come fondamentale per la sicurezza nazionale e la competitività americana, sostenendo che il governo deve quindi sostenere la crescita del settore. Di conseguenza, OpenAI e altri sembrano ora pronti a ottenere l’accesso a un’energia più economica, a contratti lucrativi per la sicurezza nazionale e a un ambiente normativo più permissivo che non si preoccupa delle minuzie della sicurezza dell’IA.
Mentre i grandi attori sembrano più o meno allineati su questa grande narrazione, le divisioni su altre questioni minacciano ancora di rompere l’armonia mostrata questa settimana all’inaugurazione del Presidente Trump.
La regolamentazione dell’IA è iniziata seriamente dopo il lancio di ChatGPT nel novembre 2022. A quel punto, “gran parte della conversazione riguardava la responsabilità”, afferma Liana Keesing, responsabile delle campagne per la riforma della tecnologia presso Issue One, un’organizzazione no-profit per la democrazia che segue l’influenza delle Big Tech.
Alle aziende è stato chiesto cosa farebbero per le immagini deepfake sessualmente esplicite e per la disinformazione elettorale. “Sam Altman ha fatto un ottimo lavoro arrivando e dipingendosi fin da subito come un sostenitore di questo processo”, dice Keesing.
OpenAI ha iniziato la sua attività ufficiale di lobbying intorno all’ottobre 2023, assumendo Chan Park, ex consigliere della Commissione Giudiziaria del Senato e lobbista di Microsoft, per guidarla. I legislatori, in particolare l’allora leader della maggioranza del Senato Chuck Schumer, hanno chiesto a gran voce di limitare questi particolari danni; OpenAI ha assunto l’ex consulente legale di Schumer, Reginald Babin, come lobbista, secondo i dati di OpenSecrets. L’estate scorsa l’azienda ha assunto il veterano della politica Chris Lehane come responsabile della politica globale.
Le precedenti dichiarazioni di OpenAI confermano che i lobbisti dell’azienda si sono successivamente concentrati per gran parte dello scorso anno su leggi come il No Fakes Act e il Protect Elections from Deceptive AI Act. Le proposte di legge non si sono concretizzate. Ma con il passare dell’anno, gli obiettivi normativi delle aziende di IA hanno iniziato a cambiare. “Uno dei maggiori cambiamenti che abbiamo visto”, afferma Keesing, “è che hanno iniziato a concentrarsi sull’energia”.
A settembre, Altman, insieme ai leader di Nvidia, Anthropic e Google, ha visitato la Casa Bianca e ha presentato la visione secondo cui la competitività degli Stati Uniti nell’IA dipenderà da infrastrutture energetiche sovvenzionate per addestrare i modelli migliori. Altman ha proposto all’amministrazione Biden la costruzione di più centri dati da cinque gigawatt, che consumerebbero ciascuno la stessa quantità di elettricità della città di New York.
Più o meno nello stesso periodo, aziende come Meta e Microsoft hanno iniziato a sostenere che l’energia nucleare fornirà la strada da seguire per l’IA, annunciando accordi finalizzati all’accensione di nuove centrali nucleari.
È probabile che il team politico di OpenAI stesse già pianificando questo particolare cambiamento. Ad aprile, l’azienda ha assunto il lobbista Matthew Rimkunas, che ha lavorato per l’impegno di Bill Gates per l’energia sostenibile Breakthrough Energies e, prima ancora, ha lavorato per 16 anni per il senatore Graham; il repubblicano della Carolina del Sud fa parte della sottocommissione del Senato che gestisce la sicurezza nucleare.
Questa nuova corsa all’energia dell’IA è inseparabile dal posizionamento dell’IA come essenziale per la sicurezza nazionale e la competitività degli Stati Uniti nei confronti della Cina. OpenAI ha esposto la sua posizione in un post sul blog a ottobre, scrivendo: “L’IA è una tecnologia di trasformazione che può essere usata per rafforzare i valori democratici o per minarli. Ecco perché crediamo che le democrazie debbano continuare a prendere l’iniziativa nello sviluppo dell’IA”. Poi, a dicembre, l’azienda ha fatto un ulteriore passo avanti e ha invertito la sua politica contro la collaborazione con i militari, annunciando che avrebbe sviluppato modelli di IA con l’azienda di tecnologia della difesa Anduril per aiutare ad abbattere i droni intorno alle basi militari.
Lo stesso mese, Sam Altman ha dichiarato in un’intervista con The Free Press che l’amministrazione Biden non è stata “così efficace” nel promuovere l’IA: “Le cose che penso avrebbero dovuto essere le priorità dell’amministrazione, e spero che lo saranno per la prossima amministrazione, sono la costruzione di una massiccia infrastruttura per l’IA negli Stati Uniti, la creazione di una catena di approvvigionamento negli Stati Uniti, cose del genere”.
Questa caratterizzazione non tiene conto del CHIPS Act, uno stimolo di 52 miliardi di dollari all’industria nazionale dei chip che, almeno sulla carta, è in linea con la visione di Altman. (Inoltre ha preceduto un ordine esecutivo emesso da Biden proprio la settimana scorsa, per affittare terreni federali per ospitare il tipo di centri dati su scala gigawatt che Altman aveva chiesto).
Intenzionalmente o meno, la posizione di Altman lo ha allineato al crescente cameratismo tra il Presidente Trump e la Silicon Valley. Mark Zuckerberg, Elon Musk, Jeff Bezos e Sundar Pichai erano tutti seduti dietro la famiglia di Trump all’inaugurazione di lunedì, e anche Altman ha partecipato. Molti di loro hanno anche effettuato cospicue donazioni al fondo inaugurale di Trump, e Altman ha personalmente versato un milione di dollari.
È facile considerare l’inaugurazione come una prova del fatto che questi leader tecnologici sono allineati tra loro e con altri attori nell’orbita di Trump. Ma ci sono ancora alcune linee di divisione chiave che vale la pena osservare. In particolare, c’è lo scontro sui visti H-1B, che consentono a molti ricercatori di intelligenza artificiale non cittadini di lavorare negli Stati Uniti. Musk e Vivek Ramaswamy (che da questa settimana non fa più parte del cosiddetto Dipartimento per l’efficienza del governo) hanno spinto per l’ampliamento del programma di visti. Ciò ha scatenato la reazione di alcuni alleati dell’amministrazione Trump, forse soprattutto di Steve Bannon.
Un’altra linea di demarcazione è la battaglia tra IA open e closed-source. Google e OpenAI impediscono a chiunque di sapere esattamente cosa c’è nei loro modelli più potenti, spesso sostenendo che questo impedisce che vengano usati impropriamente da malintenzionati. Musk ha citato in giudizio OpenAI e Microsoft per questo motivo, sostenendo che i modelli closed-source sono antitetici alla struttura ibrida non profit di OpenAI. Meta, il cui modello Llama è open-source, si è recentemente schierata con Musk in questa causa. Il venture capitalist e alleato di Trump Marc Andreessen ha fatto eco a queste critiche di OpenAI su X poche ore dopo l’inaugurazione. (Andreessen ha anche detto che rendere i modelli di IA open-source “rende superflue le regolamentazioni opprimenti”).
Infine, ci sono le battaglie sui pregiudizi e sulla libertà di parola. Gli approcci molto diversi adottati dalle aziende di social media per la moderazione dei contenuti – compreso il recente annuncio di Meta di voler terminare il suo programma di fact-checking negli Stati Uniti – sollevano dubbi sul fatto che anche il modo in cui i modelli di intelligenza artificiale vengono moderati continuerà a dividersi. Musk ha lamentato quella che definisce la “wokeness” di molti modelli leader, e Andreessen ha detto martedì che “i LLM cinesi sono molto meno censurati di quelli americani” (anche se questo non è del tutto vero, dato che molti modelli di AI cinesi hanno una censura imposta dal governo che vieta particolari argomenti). Altman è stato più equivoco: “Nessuna persona sarà mai d’accordo sul fatto che un sistema sia perfettamente imparziale”, ha dichiarato al Free Press.
È solo l’inizio di una nuova era a Washington, ma la Casa Bianca si è data da fare. Ha abrogato molti ordini esecutivi firmati dal Presidente Biden, tra cui l’ordine storico sull’IA che imponeva regole per l’uso della tecnologia da parte del governo (mentre sembra aver mantenuto l’ordine di Biden sull’affitto di terreni per ulteriori centri dati). Anche Altman è impegnato. OpenAI, Oracle e SoftBank avrebbero in programma di spendere fino a 500 miliardi di dollari in una joint venture per nuovi data center; il progetto è stato annunciato dal Presidente Trump, con Altman a fianco. Secondo Axios, Altman parteciperà anche a un incontro a porte chiuse con funzionari governativi il 30 gennaio, che riguarderà lo sviluppo da parte di OpenAI di un nuovo potente agente AI.