Il Dipartimento della Difesa americano ha pubblicato una serie di regole etiche da rispettare da parte delle aziende appaltatrici che forniscono tecnologie alle forze armate, con particolare riferimento all’utilizzo dell’intelligenza artificiale.
di Will Douglas Heaven
Nel 2018, quando i dipendenti di Google hanno scoperto il coinvolgimento della loro azienda nel Project Maven, una controversa iniziativa militare statunitense per sviluppare l’intelligenza artificiale per analizzare i video di sorveglianza, non erano contenti. Migliaia hanno protestato. “Crediamo che Google non dovrebbe partecipare al business della guerra”, hanno scritto in una lettera alla leadership dell’azienda. Una decina di dipendenti si sono dimessi. Nel 2019, Google non ha rinnovato il contratto.
Project Maven esiste ancora e da allora altre aziende tecnologiche, tra cui Amazon e Microsoft, hanno preso il posto di Google. Eppure il Dipartimento della Difesa degli Stati Uniti sa di avere un problema di fiducia. È qualcosa che deve affrontare per mantenere l’accesso alla tecnologia più recente, in particolare l’intelligenza artificiale, che richiederà la collaborazione con Big Tech e altre organizzazioni non militari.
Nel tentativo di promuovere la trasparenza, la Defense Innovation Unit, che assegna contratti del Dipartimento della Difesa alle aziende, ha pubblicato quelle che definisce linee guida per l’AI responsabile per gli sviluppatori di terze parti da utilizzare nella creazione di prodotti per i militari, indipendentemente dal fatto che l’intelligenza artificiale sia per un sistema di gestione delle risorse umane o per altri tipi di obiettivi.
Le linee guida definiscono i passaggi che le aziende devono seguire durante la pianificazione, lo sviluppo e l’implementazione. Includono procedure per identificare chi potrebbe utilizzare la tecnologia, chi potrebbe esserne danneggiato, quali potrebbero essere tali danni e come potrebbero essere evitati, in tutte le diverse fasi. “Non esistono altre linee guida, né all’interno del Dipartimento della Difesa né, francamente, nel governo degli Stati Uniti, che entrino in questo livello di dettaglio”, afferma Bryce Goodman della Defense Innovation Unit, coautore delle linee guida.
Il lavoro potrebbe cambiare il modo in cui l’AI viene sviluppata dal governo degli Stati Uniti, se le linee guida del DoD verranno adottate da altri dipartimenti. Goodman afferma che lui e i suoi colleghi le hanno trasmesse alla NOAA e al Dipartimento dei trasporti e stanno parlando con gruppi etici all’interno del Dipartimento di Giustizia, dell’Amministrazione dei servizi generali e dell’IRS.
Lo scopo delle linee guida è quello di assicurarsi che gli appaltatori tecnologici si attengano ai principi etici esistenti del DoD per l’utilizzo dell’intelligenza artificiale, afferma Goodman. Il DoD ha annunciato questi principi l’anno scorso, a seguito di uno studio di due anni commissionato dal Defense Innovation Board, un comitato consultivo di importanti ricercatori tecnologici e uomini d’affari istituito nel 2016 per favorire l’innovazione nelle forze armate statunitensi. Il consiglio è stato presieduto dall’ex CEO di Google Eric Schmidt fino a settembre 2020 e tra i suoi attuali membri è presente Daniela Rus, direttrice del Computer Science and Artificial Intelligence Lab del MIT.
Eppure alcuni critici si chiedono se queste linee guida permettano di fare passi in avanti significativi. Nel corso della loro stesura, il dipartimento ha consultato una serie di esperti, comprese voci critiche sull’utilizzo dell’AI a scopi militari, come i membri della Campaign for Killer Robots e Meredith Whittaker, un ex ricercatrice di Google che ha contribuito a organizzare le proteste sul Project Maven.
Whittaker, che ora è a capo della facoltà dell’AI Now Institute della New York University, non era disponibile per un commento, ma secondo Courtney Holsworth, portavoce dell’istituto, ha partecipato a una riunione, durante la quale ha discusso con i membri anziani del consiglio, tra cui Schmidt, sulla direzione che si stava prendendo. “Non è stata mai ascoltata seriamente”, afferma Holsworth. “E’ stato un contatto per poter dire che c’era un accordo da parte di tutte le parti interessate, comprese quelle dissenzienti”.
Ma effettivamente le linee guida del DoD devono godere del consenso generale per creare fiducia? “Ci saranno persone che non saranno mai soddisfatte da nessuna serie di linee guida etiche prodotte dal DoD perché trovano l’idea paradossale”, afferma Goodman. “È importante essere realistici su ciò che le linee guida possono e non possono fare”.
Per esempio, le linee guida non dicono nulla sull’uso di armi letali autonome, una tecnologia che secondo alcuni attivisti dovrebbe essere vietata. Ma Goodman sottolinea che i regolamenti che disciplinano tale tecnologia sono decisi in una fascia più alta della catena decisionale. L’obiettivo delle linee guida è rendere più semplice la creazione di un’AI che soddisfi tali normative. E parte di questo processo è esplicitare tutte le preoccupazioni degli sviluppatori di terze parti. “Una valida applicazione di queste linee guida è decidere, per esempio, di non perseguire un particolare sistema”, afferma Jared Dunnmon del Dipartimento di Giustiza, che ha partecipato alla loro stesura.
Margaret Mitchell, ricercatrice di intelligenza artificiale di Hugging Face, che ha co-guidato il team di AI etica di Google con Timnit Gebru prima che entrambe fossero costrette a lasciare l’azienda, concorda sul fatto che le linee guida etiche possono aiutare a rendere un progetto più trasparente per coloro che ci lavorano, almeno in teoria.
Mitchell ha avuto un posto in prima fila durante le proteste a Google. Una delle principali critiche mosse dai dipendenti era che l’azienda stava consegnando tecnologia potente ai militari senza nessuna forma di controllo, dice: “Le persone hanno finito per andarsene proprio a causa della mancanza di qualsiasi tipo di linee guida chiare o trasparenza”.
Per Mitchell, la questione è più complessa. “Penso che alcune persone in Google abbiano decisamente ritenuto che tutte le collaborazioni con l’esercito fossero negative”, afferma. “Io non la penso così. Credo ci sia modo di farlo senza sacrificare i principi etici.
Un problema è che parte della formulazione delle linee guida è suscettibile di interpretazione. Per esempio, quando si afferma: “Il dipartimento adotterà misure deliberate per ridurre al minimo i pregiudizi non intenzionali dell’AI”. E quale sarebbe il pregiudizio non intenzionale? Potrebbe sembrare un pelo nell’uovo, ma le differenze di interpretazione dipendono da questo tipo di dettaglio.
Il monitoraggio dell’uso della tecnologia militare è difficile perché in genere richiede l’autorizzazione di sicurezza. Per affrontare questo problema, Mitchell vorrebbe che i contratti del Dipartimento della Difesa prevedano revisori indipendenti con la possibilità di concedere l’autorizzazione necessaria, che possano rassicurare le aziende sul fatto che le linee guida vengono effettivamente seguite. “I dipendenti hanno bisogno di qualche garanzia che le linee guida vengano interpretate come è nelle loro aspettative”, conclude.
(rp)