Skip to main content
Stephanie Arnett/MIT Technology Review | Adobe Stock

Quando l’IA passa dall’efficienza alla sorveglianza?

Sei mesi fa ho partecipato al più grande raduno di capi della polizia negli Stati Uniti per vedere come stanno utilizzando l’IA. Ho riscontrato alcuni sviluppi importanti, come la possibilità per gli agenti di utilizzare l’IA per scrivere i loro rapporti di polizia. Oggi ho pubblicato un nuovo articolo che mostra quanto l’IA per la polizia si sia sviluppata da allora.

Si tratta di un nuovo metodo che i dipartimenti di polizia e le agenzie federali hanno trovato per tracciare le persone: uno strumento di intelligenza artificiale che utilizza attributi come le dimensioni del corpo, il sesso, il colore e lo stile dei capelli, l’abbigliamento e gli accessori invece dei volti. Si tratta di un modo per aggirare le leggi che limitano l’uso del riconoscimento facciale, che sono in aumento.

I difensori dell’ACLU, dopo essere venuti a conoscenza dello strumento attraverso MIT Technology Review, hanno dichiarato che si tratta del primo caso di sistema di tracciamento utilizzato su scala statunitense e che ha un elevato potenziale di abuso da parte delle agenzie federali. La prospettiva che l’intelligenza artificiale consenta una sorveglianza più potente è particolarmente allarmante in un momento in cui l’amministrazione Trump sta spingendo per un maggiore monitoraggio di manifestanti, immigrati e studenti.

Spero che leggiate l’articolo completo per i dettagli e per vedere un video dimostrativo di come funziona il sistema. Ma prima, parliamo un attimo di ciò che questo ci dice sullo sviluppo della tecnologia della polizia e a quali regole, se ci sono, questi dipartimenti sono soggetti nell’era dell’IA.

Come ho sottolineato nel mio articolo di sei mesi fa, negli Stati Uniti i dipartimenti di polizia godono di una straordinaria indipendenza. Ci sono più di 18.000 dipartimenti nel Paese e in genere hanno molta discrezione sulla tecnologia da utilizzare. Negli ultimi anni, questa tecnologia è diventata sempre più incentrata sull’intelligenza artificiale.

Aziende come Flock e Axon vendono suite di sensori – telecamere, lettori di targhe, rilevatori di spari, droni – e poi offrono strumenti di intelligenza artificiale per dare un senso a quell’oceano di dati (alla conferenza dell’anno scorso ho assistito a un incontro tra innumerevoli startup di intelligenza artificiale per la polizia e i capi a cui vendono sul piazzale dell’esposizione). I dipartimenti dicono che queste tecnologie fanno risparmiare tempo, alleviano la carenza di agenti e aiutano a ridurre i tempi di risposta.

Sembrano ottimi obiettivi, ma questo ritmo di adozione solleva una domanda ovvia: chi stabilisce le regole? Quando l’uso dell’IA passa dall’efficienza alla sorveglianza e che tipo di trasparenza è dovuta al pubblico?

In alcuni casi, la tecnologia della polizia alimentata dall’intelligenza artificiale sta già creando una frattura tra i dipartimenti e le comunità che servono. Quando la polizia di Chula Vista, in California, è stata la prima nel Paese a ottenere una deroga speciale dalla Federal Aviation Administration per far volare i suoi droni più lontano del normale, ha dichiarato che i droni sarebbero stati utilizzati per risolvere i crimini e per aiutare le persone più rapidamente nelle emergenze. Hanno ottenuto alcuni successi.

Ma il dipartimento è stato anche citato in giudizio da una testata giornalistica locale, che ha affermato di non aver mantenuto la promessa di rendere pubbliche le riprese dei droni, e i residenti hanno dichiarato che i droni che ronzano sopra le loro teste sembrano un’invasione della privacy. Un’indagine ha rilevato che i droni sono stati impiegati più spesso nei quartieri poveri e per problemi minori come la musica ad alto volume.

Jay Stanley, analista senior presso l’ACLU, afferma che non esiste una legge federale generale che regoli l’adozione da parte dei dipartimenti di polizia locali di tecnologie come il software di tracciamento di cui ho scritto. Di solito i dipartimenti hanno il margine di manovra per provare prima e vedere come reagiscono le loro comunità dopo il fatto. (Veritone, che produce lo strumento di cui ho scritto, ha detto di non poter fare nomi o collegarmi con i dipartimenti che lo utilizzano, quindi i dettagli su come viene utilizzato dalla polizia non sono ancora chiari).

A volte le comunità prendono una posizione decisa; in tutto il Paese sono state approvate leggi locali contro l’uso del riconoscimento facciale da parte della polizia. Ma i dipartimenti, o le aziende di tecnologia della polizia da cui si riforniscono, possono trovare delle soluzioni. Stanley sostiene che il nuovo software di localizzazione di cui ho scritto pone molti degli stessi problemi del riconoscimento facciale, ma sfugge ai controlli perché tecnicamente non utilizza dati biometrici.

“La comunità dovrebbe essere molto scettica nei confronti di questo tipo di tecnologia e, come minimo, fare molte domande”, afferma. Ha tracciato una road map di ciò che i dipartimenti di polizia dovrebbero fare prima di adottare le tecnologie di intelligenza artificiale: organizzare audizioni con il pubblico, ottenere l’autorizzazione della comunità e fare promesse su come i sistemi saranno o non saranno utilizzati. Ha aggiunto che le aziende che producono questa tecnologia dovrebbero anche permetterne la verifica da parte di soggetti indipendenti.

Tutto questo sta arrivando”, afferma, “e così rapidamente che i politici e l’opinione pubblica hanno poco tempo per stare al passo”. E aggiunge: “Sono questi i poteri che vogliamo che abbia la polizia, le autorità che ci servono, e se sì, a quali condizioni?”.