Skip to main content
Stephanie Arnett/MIT Technology Review | Getty Images

Anthropic ha spinto per dei limiti morali. OpenAI si è accontentata di limiti legali più morbidi e ora ne trarrà vantaggio, dato che il Pentagono sta affrettando una strategia politicizzata sull’IA durante gli attacchi all’Iran.

Il 28 febbraio OpenAI ha annunciato di aver raggiunto un accordo che consentirà all’esercito statunitense di utilizzare le sue tecnologie in contesti riservati. Il CEO Sam Altman ha affermato che le trattative, avviate dall’azienda solo dopo la pubblica reprimenda del Pentagono nei confronti di Anthropic, sono state “decisamente affrettate“.

Nei suoi annunci, OpenAI si è premurata di precisare che non ha ceduto al Pentagono permettendogli di fare ciò che voleva con la sua tecnologia. L’azienda ha pubblicato un post sul blog in cui spiega che l’accordo stipulato impedisce l’uso delle sue tecnologie per armi autonome e sorveglianza di massa sul territorio nazionale, e Altman ha affermato che l’azienda non ha semplicemente accettato gli stessi termini che Anthropic ha rifiutato.

Si potrebbe interpretare questo come una vittoria di OpenAI sia dal punto di vista contrattuale che morale, ma leggendo tra le righe e il linguaggio legale emerge chiaramente qualcos’altro: Anthropic ha perseguito un approccio morale che le ha fatto guadagnare molti sostenitori ma che alla fine ha fallito, mentre OpenAI ha perseguito un approccio pragmatico e legale che alla fine è più morbido nei confronti del Pentagono.

Non è ancora chiaro se OpenAI sarà in grado di integrare le misure di sicurezza promesse, dato che l’esercito sta affrettando una strategia politicizzata sull’IA durante gli attacchi all’Iran, o se l’accordo sarà considerato soddisfacente dai dipendenti che volevano che l’azienda adottasse una linea più dura. Sarà difficile mantenere l’equilibrio. (OpenAI non ha risposto immediatamente alle richieste di ulteriori informazioni sul suo accordo).

Ma il diavolo si nasconde nei dettagli. Il motivo per cui OpenAI è riuscita a concludere un accordo mentre Anthropic non ci è riuscita non riguarda tanto i limiti, ha affermato Altman, quanto l’approccio. “Anthropic sembrava più concentrata su divieti specifici nel contratto, piuttosto che citare le leggi applicabili, cosa che ci faceva sentire a nostro agio”, ha scritto.

OpenAI afferma che uno dei motivi alla base della sua disponibilità a collaborare con il Pentagono è semplicemente il presupposto che il governo non violerà la legge. L’azienda, che ha condiviso un estratto limitato del suo contratto, cita una serie di leggi e politiche relative alle armi autonome e alla sorveglianza. Si tratta di leggi specifiche come la direttiva del 2023 del Pentagono sulle armi autonome (che non le vieta, ma fornisce linee guida per la loro progettazione e sperimentazione) e di leggi generali come il Quarto Emendamento, che ha sostenuto la protezione degli americani dalla sorveglianza di massa.

Tuttavia, l’estratto pubblicato “non conferisce a OpenAI un diritto autonomo, in stile Anthropic, di vietare un uso altrimenti lecito da parte del governo”, ha scritto Jessica Tillipman, vicepreside per gli studi di diritto degli appalti pubblici presso la facoltà di giurisprudenza della George Washington University. Afferma semplicemente che il Pentagono non può utilizzare la tecnologia di OpenAI per violare nessuna di queste leggi e politiche così come sono formulate oggi.

Il motivo per cui Anthropic ha ottenuto così tanti sostenitori nella sua battaglia, compresi alcuni dipendenti di OpenAI, è che non ritengono che queste regole siano sufficienti a impedire la creazione di armi autonome basate sull’intelligenza artificiale o la sorveglianza di massa. E l’ipotesi che le agenzie federali non violino la legge è una scarsa garanzia per chiunque ricordi che le pratiche di sorveglianza denunciate da Edward Snowden erano state ritenute legali dalle agenzie interne e sono state dichiarate illegali dall’ e solo dopo lunghe battaglie (per non parlare delle numerose tattiche di sorveglianza consentite dalla legge attuale che l’IA potrebbe ampliare). Su questo fronte, siamo sostanzialmente tornati al punto di partenza: consentire al Pentagono di utilizzare la sua IA per qualsiasi uso lecito.

OpenAI potrebbe dire, come ha scritto ieri il suo responsabile delle partnership per la sicurezza nazionale, che se si ritiene che il governo non rispetterà la legge, allora non si dovrebbe nemmeno essere sicuri che rispetterà i limiti proposti da Anthropic. Ma questo non è un argomento contro la loro definizione. Un’applicazione imperfetta non rende i vincoli privi di significato, e i termini contrattuali continuano a plasmare il comportamento, la supervisione e le conseguenze politiche.

OpenAI rivendica una seconda linea di difesa. L’azienda afferma di mantenere il controllo sulle regole di sicurezza che regolano i suoi modelli e di non fornire all’esercito una versione della sua IA priva di tali controlli di sicurezza. “Possiamo incorporare i nostri limiti – nessuna sorveglianza di massa e nessun sistema di armi senza il coinvolgimento umano – direttamente nel comportamento del modello”, ha scritto Boaz Barak, un dipendente di OpenAI che Altman ha incaricato di parlare della questione relativa a X.

Ma l’azienda non specifica in che modo le sue regole di sicurezza per l’esercito differiscono da quelle per gli utenti normali. Inoltre, l’applicazione delle regole non è mai perfetta, e lo è ancora meno quando OpenAI sta implementando queste protezioni in un contesto riservato per la prima volta e dovrebbe farlo in soli sei mesi.

C’è un’altra domanda alla base di tutto questo: dovrebbe spettare alle aziende tecnologiche vietare cose che sono legali ma che ritengono moralmente discutibili? Il governo ha certamente considerato inaccettabile la disponibilità di Anthropic a svolgere questo ruolo. Venerdì sera, otto ore prima che gli Stati Uniti lanciassero gli attacchi a Teheran, il segretario alla Difesa Pete Hegseth ha rilasciato dure dichiarazioni su X. “Anthropic ha dato una lezione di arroganza e tradimento”, ha scritto, facendo eco all’ordine del presidente Trump al governo di cessare la collaborazione con l’azienda di IA dopo che Anthropic ha cercato di impedire che il suo modello Claude fosse utilizzato per armi autonome o sorveglianza interna di massa. “Il Dipartimento della Guerra deve avere accesso completo e illimitato ai modelli di Anthropic per ogni scopo LEGITTIMO”, ha scritto Hegseth.

Ma a meno che il contratto completo di OpenAI non riveli ulteriori dettagli, è difficile non vedere l’azienda come seduta su un’altalena ideologica, promettendo di avere un potere che userà con orgoglio per fare ciò che ritiene giusto, mentre si rimette alla legge come principale sostegno per ciò che il Pentagono può fare con la sua tecnologia.

Ci sono tre aspetti da tenere d’occhio. Il primo è se questa posizione sarà sufficiente per i dipendenti più critici di OpenAI. Con le aziende di IA che spendono così tanto per i talenti, è possibile che alcuni di OpenAI vedano nella giustificazione di Altman un compromesso imperdonabile.

La seconda è la campagna di terra bruciata che Hegseth ha promesso di intraprendere contro Anthropic. Andando ben oltre la semplice cancellazione del contratto del governo con l’azienda, ha annunciato che questa sarebbe stata classificata come un rischio per la catena di approvvigionamento e che “nessun appaltatore, fornitore o partner che intrattiene rapporti commerciali con l’esercito degli Stati Uniti potrà svolgere alcuna attività commerciale con Anthropic”. C’è un ampio dibattito su se questo colpo mortale sia legalmente possibile, e Anthropic ha dichiarato che farà causa se la minaccia verrà portata avanti. Anche OpenAI si è schierata contro questa mossa.

Infine, come farà il Pentagono a sostituire Claude, l’unico modello di IA che utilizza attivamente in operazioni classificate, comprese alcune in Venezuela, mentre intensifica gli attacchi contro l’Iran? Hegseth ha concesso all’agenzia sei mesi di tempo per farlo, durante i quali l’esercito introdurrà gradualmente i modelli di OpenAI e quelli di xAI  Elon .

Ma secondo quanto riferito, Claude è stato utilizzato negli attacchi contro l’Iran poche ore dopo l’emanazione del divieto, il che suggerisce che la sua graduale eliminazione sarà tutt’altro che semplice. Anche se la faida durata mesi tra Anthropic e il Pentagono fosse finita (cosa di cui dubito), stiamo ora assistendo al piano di accelerazione dell’IA del Pentagono che esercita pressioni sulle aziende affinché rinuncino alle linee di demarcazione che avevano tracciato in passato, con nuove tensioni in Medio Oriente come principale banco di prova.