Quando la società rappresenta le persone di colore come “il problema”, le soluzioni tecnologiche che propone fanno spesso più male che bene.
di Charlton McIlwain
Oggi gli Stati Uniti si sbriciolano sotto il peso di due pandemie: il coronavirus e la brutalità della polizia. Entrambe provocano violenza fisica e psicologica. Entrambe uccidono e debilitano soprattutto i neri e le persone di pelle scura. Entrambe sono animate dalla tecnologia che progettiamo, utilizziamo e implementiamo, che si tratti di tracciamento dei contatti, riconoscimento facciale o social media.
Abbiamo progettato tecnologie di riconoscimento facciale rivolte ai sospetti criminali sulla base del colore della pelle. Abbiamo addestrato sistemi automatici di profilazione del rischio che identificano in modo sproporzionato le persone di origine ispanica come immigranti illegali. Abbiamo ideato algoritmi di valutazione del credito che valutano in particolare i neri a rischi e impediscono loro di acquistare case, ottenere prestiti o trovare lavoro.
Quindi la domanda a cui dobbiamo rispondere è se continueremo a progettare e distribuire strumenti che servano gli interessi di chi sostiene il razzismo e la supremazia bianca. Certo, non è affatto una domanda nuova.
Diritti incivili
Nel 1960, i leader del Partito Democratico affrontarono lo stesso problema: come poteva il loro candidato alla presidenza, John F. Kennedy, risolvere il problema dello scarso sostegno da parte dei neri e di altre minoranze razziali?
Un intraprendente scienziato politico del MIT, Ithiel de Sola Pool, propose una soluzione: raccogliere i dati degli elettori delle precedenti elezioni presidenziali, inserirli in una nuova macchina di elaborazione digitale, sviluppare un algoritmo per modellare il comportamento di voto, predire quali posizioni politiche avrebbero portato a risultati più favorevoli per consigliare a Kennedy comportamenti vincenti. Pool fondò una nuova azienda, la Simulmatics Corporation, e realizzò il suo piano. Kennedy venne eletto e i risultati mostrarono il potere di questo nuovo metodo di modellazione predittiva.
La tensione razziale è aumentata durante gli anni 1960 fino a scoppiare nella lunga e calda estate del 1967. Bruciarono città di tutta la nazione, da Birmingham, in Alabama, a Rochester, a New York, a Minneapolis, nel Minnesota. I neri americani protestarono contro l’oppressione e la discriminazione subita per mano del sistema di giustizia penale americano. Ma il presidente Johnson lo definì “disordine civile” e formò la Commissione Kerner per comprendere le cause dei “disordini del ghetto”. La commissione si affidò a Simulmatics.
Nell’ambito di un progetto DARPA volto a invertire la tendenza della guerra del Vietnam, l’azienda di Pool aveva lavorato sodo per organizzare una massiccia propaganda e una campagna psicologica contro i Vietcong. Il presidente Johnson era ansioso di impiegare la tecnologia di influenza comportamentale di Simulmatics per reprimere la minaccia domestica della nazione e non solo i suoi nemici stranieri.
Con il pretesto di un cosiddetto “studio sui media”, Simulmatics creò una squadra per definire una campagna di sorveglianza su larga scala nelle “aree colpite dalla rivolta”. A gruppi di tre si recarono nelle aree dove si erano verificate rivolte quell’estate del 1967. In primo luogo, identificarono e intervistarono i neri più rappresentativi, ma intercettarono gli altri residenti di colore, dovunque fossero, chiedendo loro cosa ne pensassero della copertura mediatica dei “disordini”.
Raccolsero molti altri dati sulla vita e le convinzioni di queste persone, entrarono nelle loro comunità, con il pretesto di cercare di capire come i media avrebbero infiammato i “disordini”. Ma Johnson e i leader politici della nazione stavano cercando di risolvere un problema. Non hanno ucciso persone, messo in prigione o fatto “sparire” segretamente.
Ma alla fine degli anni1960, questo tipo di informazioni contribuirono a creare quelli che divennero noti come “sistemi di informazione sulla giustizia penale”. Hanno proliferato nel corso dei decenni, gettando le basi per la profilazione dei neri, la sorveglianza predittiva e mirata su base razziale. Hanno lasciato un’eredità che include milioni di donne e uomini neri e di pelle scura incarcerati.
Dare un nome nuovo al problema
Neri e persone di colore. Rimangono come problema per la nostra nazione, oserei dire anche per il resto del mondo. Quando i segnali della diffusione del contagio sono comparsi per la prima volta, è stato facile vedere lo strumento di sorveglianza sanitaria come un passaggio necessario. Il coronavirus era il nostro problema e abbiamo iniziato a progettare nuove tecnologie di sorveglianza sotto forma di mappatura del contagio, tracciabilità dei contatti, monitoraggio della temperatura.
Ma è successo qualcosa di curioso e tragico. Abbiamo scoperto che i neri, i latinos e le popolazioni indigene erano colpiti in modo sproporzionato dal virus. All’improvviso, siamo diventati di nuovo un problema nazionale. Rappresentavamo una minaccia reale di diffusione del virus. La situazione è stata aggravata dal tragico omicidio di George Floyd da parte di un ufficiale di polizia bianco, che ha comportato la presenza di migliaia di manifestanti per le strade.
Quando sono iniziati i saccheggi e le rivolte, noi neri siamo stati di nuovo visti come una minaccia alla legge e all’ordine, una minaccia per un sistema che perpetua il potere razziale bianco. Ci si chiede quanto tempo ci vorrà prima che le forze dell’ordine dispieghino quelle tecnologie inizialmente progettate per combattere il covid-19 per reprimere la minaccia che i neri presumibilmente rappresentano per la sicurezza della nazione.
Se non vogliamo che la nostra tecnologia venga utilizzata per perpetuare il razzismo, allora dobbiamo assicurarci di non sovrapporre i problemi sociali come il crimine o la violenza o la malattia con le persone di colore. Se lo facciamo, rischiamo di trasformare queste persone nella minaccia che progettiamo di sradicare con la tecnologia.
Charlton McIlwain è professore di media, cultura e comunicazione alla New York University e autore di Black Software: The Internet & Racial Justice, da AfroNet a Black Lives Matter
Immagine: Getty / Ms Tech
(rp)