Skip to main content
Stephanie Arnett/MIT Technology Review | Getty Images

L’intelligenza artificiale sta potenziando la sorveglianza, ma la legge non è ancora al passo con i tempi.

La faida pubblica in corso tra il Dipartimento della Difesa e la società di IA Anthropic ha sollevato una questione profonda e ancora senza risposta: la legge consente effettivamente al governo degli Stati Uniti di condurre una sorveglianza di massa sugli americani?

Sorprendentemente, la risposta non è semplice. A più di dieci anni dalla denuncia di Edward Snowden sulla raccolta di metadati in massa dai telefoni degli americani da parte della NSA, gli Stati Uniti stanno ancora cercando di colmare il divario tra ciò che pensa la gente comune e ciò che consente la legge.

Il punto critico nella disputa tra Anthropic e il governo è stato il desiderio del Pentagono di utilizzare l’intelligenza artificiale Claude di Anthropic per analizzare dati commerciali di massa sugli americani. Anthropic ha chiesto che la sua IA non fosse utilizzata per la sorveglianza di massa sul territorio nazionale (o per armi autonome, ovvero macchine in grado di uccidere bersagli senza supervisione umana). Una settimana dopo la rottura delle trattative, il Pentagono ha designato Anthropic come rischio per la catena di approvvigionamento, un’etichetta solitamente riservata alle aziende straniere che rappresentano una minaccia per la sicurezza nazionale.

Nel frattempo, OpenAI, la società rivale di IA dietro ChatGPT, ha siglato un accordo che ha permesso al Pentagono di utilizzare la sua IA per “tutti gli scopi legittimi“, una formulazione che secondo i critici ha lasciato la porta aperta alla sorveglianza interna. Nel fine settimana successivo, gli utenti hanno disinstallato ChatGPT in massa. I manifestanti hanno scritto messaggi con il gesso intorno alla sede di OpenAI a San Francisco: “Quali sono i vostri limiti?”.

Lunedì OpenAI ha annunciato di aver rielaborato il suo accordo per garantire che la sua IA non venga utilizzata per la sorveglianza interna. L’azienda ha aggiunto che i suoi servizi non saranno utilizzati da agenzie di intelligence, come la NSA.

Il CEO Sam Altman ha suggerito che la legge vigente vieta la sorveglianza interna da parte del Dipartimento della Difesa (ora talvolta chiamato Dipartimento della Guerra) e che il contratto di OpenAI doveva semplicemente fare riferimento a questa legge. “Il Dipartimento della Guerra concorda con questi principi, li riflette nella legge e nella politica, e noi li abbiamo inseriti nel nostro accordo”, ha scritto su X. Il CEO di Anthropic, Dario Amodei, ha sostenuto il contrario. “Nella misura in cui tale sorveglianza è attualmente legale, ciò è dovuto solo al fatto che la legge non ha ancora raggiunto il livello delle capacità in rapida crescita dell’IA”, ha scritto in una dichiarazione politica.

Allora, chi ha ragione? La legge consente al Pentagono di sorvegliare gli americani utilizzando l’IA?

Sorveglianza potenziata

La risposta dipende da cosa intendiamo per sorveglianza. “Molte cose che le persone normali considererebbero una perquisizione o una sorveglianza… in realtà non sono considerate tali dalla legge”, afferma Alan Rozenshtein, professore di diritto presso la Facoltà di Giurisprudenza dell’Università del Minnesota. Ciò significa che le informazioni pubbliche, come i post sui social media, le riprese delle telecamere di sorveglianza e i registri di registrazione dell’ e elettorale, sono lecite. Lo stesso vale per le informazioni sugli americani raccolte incidentalmente dalla sorveglianza dei cittadini stranieri.

In particolare, il governo può acquistare dati commerciali da aziende, che possono includere informazioni personali sensibili come la posizione dei cellulari e i registri di navigazione web. Negli ultimi anni, agenzie come l’ICE, l’IRS, l’FBI e la NSA hanno attinto sempre più spesso a questo mercato dei dati, alimentato da un’economia internet che raccoglie i dati degli utenti per scopi pubblicitari. Questi set di dati consentono al governo di accedere a informazioni che potrebbero non essere disponibili senza un mandato o una citazione in giudizio, normalmente richiesti per ottenere dati personali sensibili.

“C’è un’enorme quantità di informazioni che il governo può raccogliere sugli americani che non è regolamentata né dalla Costituzione, ovvero dal Quarto Emendamento, né dalla legge”, afferma Rozenshtein. E non ci sono limiti significativi a ciò che il governo può fare con tutti questi dati.

Questo perché fino agli ultimi decenni le persone non generavano enormi quantità di dati che aprivano nuove possibilità di sorveglianza. Il Quarto Emendamento, che protegge da perquisizioni e sequestri irragionevoli, è stato scritto quando la raccolta di informazioni significava entrare nelle case delle persone.

Le leggi successive, come il Foreign Intelligence Surveillance Act del 1978 o l’Electronic Communications Privacy Act del 1986, sono state approvate quando la sorveglianza comportava l’intercettazione di telefonate e e-mail. La maggior parte delle leggi che regolano la sorveglianza sono state emanate prima che Internet prendesse piede. Non generavamo grandi quantità di dati online e il governo non disponeva di strumenti sofisticati per analizzarli.

Ora invece li abbiamo, e l’intelligenza artificiale potenzia il tipo di sorveglianza che può essere effettuata. “Ciò che l’intelligenza artificiale può fare è raccogliere molte informazioni, nessuna delle quali è di per sé sensibile e quindi nessuna delle quali è di per sé regolamentata, e può dare al governo molti poteri che prima non aveva”, afferma Rozenshtein.

L’intelligenza artificiale può aggregare singole informazioni per individuare modelli, trarre conclusioni e costruire profili dettagliati delle persone su vasta scala. E fintanto che il governo raccoglie le informazioni in modo legale, può fare ciò che vuole con esse, compreso inserirle nei sistemi di intelligenza artificiale. “La legge non è al passo con la realtà tecnologica”, afferma Rozenshtein.

Sebbene la sorveglianza possa sollevare serie preoccupazioni in materia di privacy, il Pentagono può avere legittimi interessi di sicurezza nazionale nella raccolta e nell’analisi dei dati sugli americani. “Per raccogliere informazioni sugli americani, deve trattarsi di un sottoinsieme molto specifico di missioni”, afferma Loren Voss, ex ufficiale dell’intelligence militare presso il Pentagono.

Ad esempio, una missione di controspionaggio potrebbe richiedere informazioni su un cittadino americano che lavora per un paese straniero o che sta complottando per intraprendere attività terroristiche internazionali. Tuttavia, l’intelligence mirata può talvolta estendersi alla raccolta di ulteriori dati. “Questo tipo di raccolta rende le persone nervose”, afferma Voss.

Uso legittimo

OpenAI ha modificato il proprio contratto per specificare che il sistema di intelligenza artificiale dell’azienda “non deve essere utilizzato intenzionalmente per la sorveglianza interna di cittadini e residenti statunitensi”, in linea con le leggi vigenti. L’emendamento chiarisce che ciò vieta “il tracciamento, la sorveglianza o il monitoraggio deliberato di cittadini o residenti statunitensi , anche attraverso l’acquisizione o l’uso di informazioni personali o identificabili acquisite commercialmente”.

Ma la formulazione aggiunta potrebbe non essere sufficiente a prevalere sulla clausola che consente al Pentagono di utilizzare il sistema di IA dell’azienda per tutti gli scopi legali, che potrebbero includere la raccolta e l’analisi di informazioni personali sensibili. “OpenAI può dire quello che vuole nel suo accordo… ma il Pentagono utilizzerà la tecnologia per ciò che ritiene legale”, afferma Jessica Tillipman, professore di diritto alla George Washington University Law School. Ciò potrebbe includere la sorveglianza interna. “Il più delle volte, le aziende non saranno in grado di impedire al Pentagono di fare qualcosa”, afferma.

Il testo lascia inoltre aperte alcune questioni relative alla sorveglianza “involontaria” e alla sorveglianza di cittadini stranieri o immigrati privi di documenti che vivono negli Stati Uniti. “Cosa succede quando c’è un disaccordo su quale sia la legge o quando la legge cambia?”, afferma Tillipman.

OpenAI non ha risposto alla richiesta di commento. L’azienda non ha reso pubblico il testo completo del nuovo contratto.

Al di là del contratto, OpenAI afferma che imporrà misure di sicurezza tecniche per far rispettare la sua linea rossa contro la sorveglianza, tra cui un “safety stack” che monitora e blocca gli usi proibiti. L’azienda afferma inoltre che invierà i propri dipendenti a lavorare con il Pentagono e che rimarrà informata. Tuttavia, non è chiaro in che modo un safety stack possa limitare l’uso dell’IA da parte del Pentagono e in che misura i dipendenti di OpenAI avrebbero visibilità su come vengono utilizzati i suoi sistemi di IA. Ancora più importante, non è chiaro se il contratto conferisca a OpenAI il potere di bloccare un uso legale della tecnologia.

Ma questo potrebbe non essere un male. Dare a un’azienda di IA il potere di interrompere la propria tecnologia nel bel mezzo di operazioni governative comporta anche dei rischi. “Non vorresti che l’esercito americano si trovasse mai in una situazione in cui fosse legittimamente necessario intraprendere azioni per proteggere la sicurezza nazionale di questo Paese e che un’azienda privata disattivasse la tecnologia”, afferma Voss. Ma ciò non significa che il Congresso non debba tracciare una linea netta, aggiunge.

Nessuna di queste questioni è semplice. Implicano compromessi estremamente difficili tra privacy e sicurezza nazionale. Ed è per questo che forse dovrebbero essere decise dal pubblico, non in negoziati dietro le quinte tra il potere esecutivo e una manciata di aziende di IA. Per ora, l’IA militare è regolata da contratti, non da leggi.

Alcuni legislatori stanno iniziando a intervenire. Lunedì, il senatore Ron Wyden dell’Oregon cercherà il sostegno bipartisan per una legislazione che affronti la sorveglianza di massa. Ha sostenuto progetti di legge che limitano l’acquisto di dati commerciali da parte del governo, tra cui il Fourth Amendment Is Not For Sale Act, presentato per la prima volta nel 2021 ma non ancora approvato. “La creazione di profili di IA degli americani basati su tali dati rappresenta una preoccupante espansione della sorveglianza di massa che non dovrebbe essere consentita”, ha affermato in una recente dichiarazione.