Skip to main content

L’invasione dell’Ucraina ha spinto le forze armate ad aggiornare il loro arsenale e le grandi aziende tecnologiche sono pronte a guidare le operazioni di riarmo dei diversi eserciti

Melissa Heikkila

Esattamente due settimane dopo che la Russia ha invaso l’Ucraina a febbraio, Alexander Karp, il CEO della azienda di analisi dei dati Palantir, ha fatto un discorso chiaro. Con la guerra alle porte, gli europei dovrebbero modernizzare i loro arsenali con l’aiuto della Silicon Valley, ha affermato in una lettera aperta.  “Se l’Europa vuole rimanere abbastanza forte da sconfiggere la minaccia dell’occupazione straniera”, ha scritto Karp, “i paesi devono migliorare il rapporto tra stato e aziende tecnologiche”.

I militari stanno rispondendo all’appello. La NATO ha annunciato il 30 giugno che sta creando un fondo per l’innovazione da 1 miliardo di dollari che investirà in startup e fondi di capitale di rischio per lo sviluppo di tecnologie “prioritarie” come l’intelligenza artificiale, l’elaborazione di big data e l’automazione.

Dall’inizio della guerra, il Regno Unito ha lanciato una nuova strategia di intelligenza artificiale specifica per la difesa e i tedeschi hanno stanziato poco meno di mezzo miliardo di dollari per la ricerca e l’intelligenza artificiale con un’iniezione di 100 miliardi di dollari ai militari. “La guerra è un catalizzatore per il cambiamento”, afferma Kenneth Payne, che guida la ricerca sulla difesa al King’s College di Londra ed è l’autore del libro I, Warbot: The Dawn of Artificially Intelligent Conflict

La guerra in Ucraina ha dato una spinta allo sviluppo di strumenti di intelligenza artificiale sul campo di battaglia. Startup come Palantir sperano di trarre vantaggio dagli aggiornamenti tecnologici degli arsenali militari. Ma le preoccupazioni etiche di lunga data sull’uso dell’AI in guerra sono diventate più pressanti man mano che la tecnologia diventa sempre più avanzata, mentre la prospettiva di restrizioni e regolamenti che ne regolano l’uso sembra più remota che mai.

Il rapporto tra tecnologia e militari non è sempre stato così amichevole. Nel 2018, in seguito alle proteste e all’indignazione dei dipendenti, Google si è ritirata dal Project Maven del Pentagono, un tentativo di costruire sistemi di riconoscimento delle immagini per migliorare gli attacchi dei droni. L’episodio ha suscitato un acceso dibattito sui diritti umani e sulla moralità dello sviluppo dell’AI per armi autonome. Ha anche portato ricercatori di intelligenza artificiale di alto profilo come Yoshua Bengio, vincitore del Premio Turing, e Demis Hassabis, Shane Legg e Mustafa Suleyman, i fondatori del principale laboratorio di intelligenza artificiale di DeepMind, a impegnarsi a non lavorare sull’AI letale

Ma quattro anni dopo, la Silicon Valley è più vicina che mai agli apparati militari e anche le start-up fanno parte del giro, afferma Yll Bajraktari, che in precedenza era direttore esecutivo della Commissione per la sicurezza nazionale degli Stati Uniti sull’AI (NSCAI) e ora lavora per lo Special Competitive Studies Project, un gruppo di pressione per l’adozione dell’AI negli Stati Uniti. 

Perché l’intelligenza artificiale?

Le aziende che vendono l’AI militare dicono che la  loro tecnologia può fare qualsiasi cosa: dallo screening dei curriculum all’elaborazione dei dati satellitari o al riconoscimento dei modelli nei dati per aiutare i soldati a prendere decisioni più rapide sul campo di battaglia. Il software di riconoscimento delle immagini può aiutare a identificare gli obiettivi. I droni autonomi possono essere utilizzati per la sorveglianza o per attacchi o per aiutare i soldati a consegnare rifornimenti in modo più sicuro di quanto sia possibile via terra.

Queste tecnologie sono ancora agli esordi sul campo di battaglia e le forze armate stanno attraversando un periodo di sperimentazione, dice Payne, a volte senza molto successo. Ci sono innumerevoli esempi della tendenza delle aziende di intelligenza artificiale a fare grandi promesse su tecnologie che poi non funzionano come pubblicizzate.

Uno dei problemi è che le zone di combattimento sono forse tra le aree tecnicamente più impegnative in cui implementare l’AI perché ci sono pochi dati di addestramento rilevanti. Ciò potrebbe causare il fallimento dei sistemi autonomi in un “modo complesso e imprevedibile”, ha affermato Arthur Holland Michel, esperto di droni e altre tecnologie di sorveglianza, in un documento per lo United Nations Institute for Disarmament Research.

Tuttavia, molti eserciti stanno spingendo sull’acceleratore. In un comunicato stampa vagamente formulato nel 2021, l’esercito britannico ha annunciato con orgoglio di aver utilizzato per la prima volta l’AI in un’operazione militare, per fornire informazioni sul territorio. Gli Stati Uniti stanno lavorando con le startup per sviluppare veicoli militari autonomiIn futuro, sciami di centinaia o addirittura migliaia di droni autonomi che le forze armate statunitensi e britanniche stanno sviluppando potrebbero rivelarsi armi potenti e letali. 

Molti esperti sono preoccupati. Meredith Whittaker, consulente senior per l’AI presso la Federal Trade Commission e direttrice di facoltà dell’AI Now Institute, afferma che questa spinta riguarda in realtà più i profitti delle aziende tecnologiche che il miglioramento delle operazioni militari. 

In un articolo per la rivista “Prospect”, scritto insieme a Lucy Suchman, professoressa di sociologia alla Lancaster University, ha affermato che chi propaganda l’AI sta alimentando la retorica della Guerra Fredda e sta cercando di creare una narrativa che attribuisca alle Big Tech lo statuto di “infrastruttura nazionale critica”, troppo grande e importante per essere frazionata o regolata. L’adozione dell’AI da parte dei militari viene presentata come un qualcosa di inevitabile invece di quello che realmente è: una scelta attiva che implica complessità etiche e compromessi. 

Mantenere il passo con la Cina

Le voci a favore di un utilizzo sempre maggiore dell’AI nella difesa sono diventate sempre più forti negli ultimi due anni. Uno dei più convinti è stato l’ex CEO di Google Eric Schmidt, che ha presieduto la NSCAI e ha chiesto agli Stati Uniti di avere più coraggio nell’adozione dell’AI militare. In un rapporto dello scorso anno che delinea cosa dovrebbero fare gli Stati Uniti per essere al passo con l’AI entro il 2025, la NSCAI ha invitato l’esercito americano a investire 8 miliardi di dollari all’anno in queste tecnologie o rischiare di rimanere indietro rispetto alla Cina.  

L’esercito cinese probabilmente spende almeno 1,6 miliardi di dollari all’anno per l’AI, secondo un rapporto del Georgetown Center for Security and Emerging Technologies, e negli Stati Uniti è già in corso una spinta significativa per raggiungere la parità, afferma Lauren Kahn, ricercatrice del Council on Foreign Relations. Il Dipartimento della Difesa degli Stati Uniti ha richiesto 874 milioni di dollari per l’intelligenza artificiale per il 2022 sebbene, come affermato in un rapporto del marzo 2022, questa cifra non rifletta il totale degli investimenti nell’AI del dipartimento.

Non sono solo le forze armate statunitensi a dover rincorrere. I paesi europei, che tendono ad essere più cauti nell’adozione di nuove tecnologie, stanno addirittura spendendo più soldi per l’AI, afferma Heiko Borchert, co-direttore del Defence AI Observatory dell’Università Helmut Schmidt di Amburgo, in Germania. I francesi e gli inglesi hanno identificato l’AI come una tecnologia di difesa chiave e la Commissione europea, il braccio esecutivo dell’UE, ha stanziato 1 miliardo di dollari per sviluppare nuove tecnologie di difesa

Superare l’inerzia burocratica

Favorire la domanda di AI è una cosa, ma fare in modo che gli eserciti la adottino è ben diverso. Molti paesi stanno lottando per passare dall’ideazione all’implementazione, afferma Arnaud Guérin, CEO di Preligens, una startup francese che vende sistemi di sorveglianza AI. Ciò è in parte dovuto al fatto che l’industria della difesa nella maggior parte dei paesi è ancora generalmente dominata da un gruppo di grandi appaltatori, che tendono ad avere più esperienza nell’hardware militare rispetto al software di intelligenza artificiale, afferma. 

Inoltre, i goffi processi di verifica militare si muovono lentamente rispetto alla velocità vertiginosa tipica dello sviluppo dell’AI: i contratti militari possono durare decenni, ma le startup si giocano il loro futuro in un solo anno. Startup e venture capitalist hanno espresso frustrazione per il fatto che la situazione si muova così lentamente. Il rischio, sostiene Katherine Boyle, socio accomandatario della società di venture capital Andreessen Horowitz, è che ingegneri di talento inizino a lavorare per Facebook e Google e le startup falliscano in attesa di contratti di difesa. 

Le aziende di intelligenza artificiale con ambizioni nel settore militare devono “rimanere in attività per molto tempo”, afferma Ngor Luong, un esperto che ha studiato le tendenze degli investimenti nell’AI presso il Georgetown Center for Security and Emerging Technologies. I militari sono in difficoltà, dice Kahn: se vanno troppo veloci, rischiano di schierare sistemi pericolosi, se si muovono troppo lentamente, perdono il treno dell’innovazione tecnologica. Gli Stati Uniti vogliono andare più veloci e il Dipartimento della Difesa si è avvalso dell’aiuto di Craig Martell, l’ex capo dell’intelligenza artificiale dell’azienda di trasporti Lyft. 

Nel giugno 2022, Martell ha preso il timone del nuovo Chief Digital Artificial Intelligence Office del Pentagono, che mira a coordinare le iniziative di intelligenza artificiale delle forze armate statunitensi. Martell ha detto a “Bloomberg” che la sua missione è cambiare la cultura del dipartimento e incrementare l’uso dell’AI da parte dei militari nonostante “l’inerzia burocratica”. 

Potrebbe avere vita facile, poiché le aziende di intelligenza artificiale stanno già iniziando ad aggiudicarsi contratti militari redditizi. A febbraio, Anduril, una startup nata cinque anni fa che sviluppa sistemi di difesa autonomi come sofisticati droni sottomarini, ha vinto un contratto di difesa da 1 miliardo di dollari con gli Stati Uniti. A gennaio, ScaleAI, una startup che fornisce servizi di etichettatura dei dati per l’intelligenza artificiale, ha vinto un contratto da 250 milioni di dollari con il Dipartimento della Difesa degli Stati Uniti. 

Lontano dagli occhi, lontano dal cuore

Tuttavia, le preoccupazioni etiche che hanno alimentato le proteste attorno al Progetto Maven non sono scomparse. Consapevole di avere un problema di fiducia, il Dipartimento della Difesa degli Stati Uniti ha lanciato linee guida di “intelligenza artificiale responsabile” per gli sviluppatori di AI e proprie linee guida etiche. La NATO ha una strategia per l’AI che stabilisce linee guida etiche volontarie per i paesi membri. 

Tutte queste linee guida invitano le forze armate a utilizzare l’AI in un modo che sia legale, responsabile, affidabile e tracciabile e cerchi di mitigare i pregiudizi incorporati negli algoritmi. Uno dei loro concetti chiave è che gli esseri umani devono sempre mantenere il controllo sui sistemi di intelligenza artificiale. Ma con lo sviluppo della tecnologia, ciò non sarà davvero possibile, afferma Payne.

“Il punto centrale di un sistema autonomo è consentirgli di prendere una decisione più velocemente e con maggiore precisione di quanto potrebbe fare un essere umano e su una scala che un essere umano non può raggiungere”, afferma. “Si crea un ostacolo quasi insormontabile se l’obiettivo è quello di analizzare ogni decisione”.  

In ogni caso, i critici affermano che sono necessarie regole più stringenti. C’è una campagna globale chiamata Stop Killer Robots che cerca di vietare armi autonome letali, come gli sciami di droni. Attivisti, funzionari di alto profilo come il capo delle Nazioni Unite António Guterres e governi come quello della Nuova Zelanda sostengono che le armi autonome sono assolutamente non etiche, perché danno alle macchine il controllo sulle decisioni di vita o di morte e potrebbero danneggiare in modo sproporzionato le comunità emarginate attraverso pregiudizi algoritmici

Sciami di migliaia di droni autonomi, per esempio, potrebbero diventare armi di distruzione di massa. Limitare queste tecnologie sarà una battaglia in salita perché l’idea di un divieto globale ha dovuto affrontare l’opposizione di grandi investitori nel settore militare, come Stati Uniti, Francia e Regno Unito.

In definitiva, la nuova era dell’AI militare solleva una serie di difficili domande etiche a cui non abbiamo ancora risposte, in particolare sul livello di automatizzazione delle forze armate, afferma Payne. Da un lato, i sistemi di intelligenza artificiale potrebbero ridurre le vittime rendendo la guerra più mirata, ma dall’altro, “si sta creando effettivamente una forza mercenaria robotica da combattimento”, conclude, “che rende la società meno consapevole dele conseguenze della violenza”. 

(rp)