Skip to main content
Stephanie Arnett/MIT Technology Review | Getty, Adobe Stock, Envato

L’addestramento degli agenti nella realtà virtuale, le città sorvegliate da reti di sensori e i rapporti di polizia generati dall’intelligenza artificiale sono tutti segni di ciò che verrà.

Per i giornalisti può essere difficile oltrepassare certe porte, e quella della conferenza dell’Associazione internazionale dei capi di polizia è una di quelle quasi perennemente chiuse ai media. Per questo motivo, sono rimasto piacevolmente sorpreso quando il mese scorso sono riuscito a partecipare per un giorno a Boston.

Si presenta come il più grande raduno di capi di polizia degli Stati Uniti, dove i leader di molti dei 18.000 dipartimenti di polizia del Paese e anche alcuni dall’estero si riuniscono per dimostrazioni di prodotti, discussioni, feste e premi.

Sono andato a vedere come si discuteva dell’intelligenza artificiale e il messaggio ai capi della polizia è sembrato chiarissimo: se il vostro dipartimento è lento ad adottare l’intelligenza artificiale, risolvetelo subito. Il futuro della polizia si baserà su di essa in tutte le sue forme.

Nella sala espositiva dell’evento, i venditori (più di 600) hanno offerto uno sguardo al settore in espansione dei fornitori di tecnologia per la polizia. Alcuni non avevano molto a che fare con l’IA: gli stand presentavano armature, fucili e prototipi di Cybertrucks a marchio della polizia, mentre altri esponevano nuovi tipi di guanti che promettevano di proteggere gli agenti dagli aghi durante le perquisizioni. Ma bastava guardare dove si radunavano le folle più numerose per capire che l’IA era l’attrazione principale.

Il clamore si è concentrato su tre usi dell’IA nelle forze di polizia. Il più appariscente era la realtà virtuale, esemplificata dallo stand di V-Armed, che vende sistemi VR per l’addestramento degli agenti. Sul piano espositivo, V-Armed ha costruito un’arena completa di occhiali, telecamere e sensori VR, non dissimile da quella che l’azienda ha recentemente installato presso la sede del Dipartimento di Polizia di Los Angeles. I partecipanti hanno potuto indossare gli occhiali e partecipare a esercizi di addestramento per rispondere a situazioni di sparatoria attiva. Alla fiera erano presenti anche molti concorrenti di V-Armed, che vendevano sistemi a loro detta più economici, più efficaci o più semplici da mantenere.

L’idea della formazione VR è che, a lungo termine, può essere più economica e più coinvolgente della formazione con attori o in aula. “Se ci si diverte, ci si concentra di più e si ricorda meglio rispetto a quando si guarda un PDF e si annuisce con la testa”, mi ha detto Ezra Kraus, CEO di V-Armed.

L’efficacia dei sistemi di formazione VR non è ancora stata studiata a fondo e non possono replicare completamente le interazioni sfumate che la polizia ha nel mondo reale. L’intelligenza artificiale non è ancora in grado di gestire le competenze trasversali necessarie per interagire con il pubblico. Allo stand di un’altra azienda, ho provato un sistema VR incentrato sull’addestramento alla deescalation, in cui gli agenti dovevano calmare un personaggio IA in difficoltà. Il sistema soffriva di lag e in generale era piuttosto imbarazzante: le risposte del personaggio sembravano eccessivamente programmate e scriptate.

Il secondo punto è stato il cambiamento del modo in cui i dipartimenti di polizia raccolgono e interpretano i dati. Piuttosto che acquistare uno strumento per il rilevamento degli spari da un’azienda e un lettore di targhe o un drone da un’altra, i dipartimenti di polizia utilizzano sempre più spesso suite di sensori, telecamere e così via da una manciata di aziende leader che promettono di integrare i dati raccolti e renderli utili.

I capi della polizia hanno seguito corsi su come costruire questi sistemi, come quello tenuto da Microsoft e dalla Polizia di New York sul Domain Awareness System, una rete di lettori di targhe, telecamere e altre fonti di dati utilizzata per tracciare e monitorare la criminalità nella città di New York. La folla si è radunata presso gli enormi stand high-tech di Axon e Flock, entrambi sponsor della conferenza. Flock vende una suite di telecamere, lettori di targhe e droni, che offre un’intelligenza artificiale per analizzare i dati in arrivo e attivare gli allarmi. Questo tipo di strumenti è stato oggetto di pesanti critiche da parte dei gruppi per le libertà civili, che li considerano un attacco alla privacy che non aiuta molto il pubblico.

Infine, come in altri settori, l’IA sta arrivando anche per le attività amministrative e di reporting. Molte aziende presenti alla fiera, tra cui Axon, offrono prodotti di IA generativa per aiutare gli agenti di polizia a scrivere i loro rapporti. L’offerta di Axon, denominata Draft One, acquisisce i filmati dalle telecamere, li trascrive e crea una prima bozza di rapporto per gli agenti.

“Abbiamo questa cosa sul corpo di un agente e sta registrando un sacco di cose interessanti sull’incidente”, mi ha detto Bryan Wheeler, vicepresidente senior di Axon, alla fiera. “Possiamo usarlo per dare all’agente un vantaggio?”.

In apparenza, si tratta di un compito di scrittura adatto all’intelligenza artificiale, che può riassumere rapidamente le informazioni e scrivere in modo formulare. Inoltre, potrebbe far risparmiare agli agenti molto tempo che attualmente dedicano alla stesura dei rapporti. Ma dato che l’IA è incline all'”allucinazione”, c’è una verità inevitabile: anche se gli agenti sono gli autori finali dei loro rapporti, i dipartimenti che adottano questo tipo di strumenti rischiano di introdurre errori in alcuni dei documenti più critici del sistema giudiziario.

“I rapporti della polizia sono a volte l’unico resoconto memorizzato di un incidente”, ha scritto a luglio Andrew Ferguson, professore di diritto all’American University, nel primo articolo della rivista giuridica sulle gravi sfide poste dai rapporti della polizia scritti con l’intelligenza artificiale. “Poiché le cause penali possono richiedere mesi o anni per arrivare al processo, l’accuratezza di questi rapporti è di fondamentale importanza”. L’inclusione o l’omissione di alcuni dettagli può influenzare l’esito di qualsiasi cosa, dall’ammontare della cauzione ai verdetti.

Mostrando a un agente una versione generata di un rapporto di polizia, gli strumenti espongono anche gli agenti ai dettagli delle registrazioni delle loro telecamere prima che completino il loro rapporto, un documento destinato a catturare la memoria dell’agente sull’incidente. Questo pone un problema.

“La polizia non mostrerebbe mai un video a un testimone oculare prima di chiedergli cosa è successo, perché sarebbe solo una cattiva prassi investigativa”, afferma Jay Stanley, analista senior del progetto Speech, Privacy and Technology dell’ACLU, che pubblicherà presto un lavoro sull’argomento.

Un portavoce di Axon afferma che questa preoccupazione “non riflette il modo in cui lo strumento è destinato a funzionare” e che Draft One dispone di solide funzioni per garantire che gli agenti leggano attentamente i rapporti, aggiungano le proprie informazioni e modifichino i rapporti per verificarne l’accuratezza prima di inviarli.

Il mio più grande risultato della conferenza è stato semplicemente che il modo in cui la polizia statunitense sta adottando l’IA è intrinsecamente caotico. Non c’è un’unica agenzia che regola le modalità di utilizzo della tecnologia e i circa 18.000 dipartimenti di polizia degli Stati Uniti – la cifra esatta non è nemmeno nota – hanno livelli di autonomia notevolmente elevati per decidere quali strumenti di IA acquistare e utilizzare. Le aziende di tecnologia della polizia che li servono costruiranno gli strumenti che i dipartimenti di polizia troveranno interessanti, e non è chiaro se qualcuno traccerà i giusti confini per quanto riguarda l’etica, la privacy e l’accuratezza.

Questo sarà ancora più evidente nell’imminente amministrazione Trump. In un programma di polizia pubblicato l’anno scorso durante la sua campagna elettorale, Trump ha incoraggiato tattiche più aggressive come lo “stop and frisk”, una maggiore cooperazione con le agenzie per l’immigrazione e una maggiore tutela della responsabilità per gli agenti accusati di illeciti. Secondo quanto riferito, l’amministrazione Biden sta ora cercando di bloccare alcune delle sue proposte di riforma della polizia prima di gennaio.

Senza una regolamentazione federale che stabilisca come i dipartimenti di polizia possono o non possono utilizzare l’IA, le linee di demarcazione saranno tracciate dai dipartimenti e dalle stesse aziende di tecnologia della polizia.

“In definitiva, si tratta di aziende a scopo di lucro e i loro clienti sono le forze dell’ordine”, afferma Stanley. “Fanno quello che vogliono i loro clienti, in assenza di una grande minaccia per il loro modello di business”.