Un algoritmo razzista controlla l’immigrazione

Il Regno Unito sospenderà l’utilizzo di un algoritmo per l’elaborazione delle domande di visto contro cui è stata avviata una causa legale per infrazione dei diritti civili.

di Will Douglas Heaven

La notizia: il Ministero degli Interni del Regno Unito ha dichiarato di voler sospendere l’utilizzo di un algoritmo per elaborare delle richieste di visto che i critici definiscono razzista. Secondo gli oppositori, il fatto che l’algoritmo utilizzi la nazionalità del richiedente per decidere a quali domande dare la precedenza, avrebbe portato ad un sistema dove “gli individui provenienti da paesi abbienti a prevalenza bianca ottengono un processo accelerato, mentre individui di colore provenienti da paesi più poveri si trovano sospinti in fondo alla coda.”

Si riparte da zero: il Ministero degli Interni nega che il sistema sia razzista e la causa è ancora aperta. Ciononostante, il Ministero ha accettato di sospendere l’utilizzo dell’algoritmo e prevede di rilanciarne una nuova versione entro fine anno, dopo aver condotto una revisione completa intesa ad individuare eventuali pregiudizi inconsci. Nel frattempo, il Regno Unito adotterà un sistema alternativo temporaneo che studia le domande di visto senza prendere in considerazione la nazionalità del richiedente.

Sistema a semaforo: dal 2015 il Regno Unito filtra le richieste di visto utilizzando un sistema a semaforo che assegna a ciascun richiedente un livello di rischio rosso, giallo o verde. Gli individui a cui viene assegnato un livello di rischio rosso avevano maggiori probabilità di vedersi rifiutare il visto.

Una tendenza diffusa: è ormai cosa nota che gli algoritmi tendono a rafforzare i pregiudizi istituzionali, in particolare quelli razzisti. Ciononostante, sono sempre più utilizzati in supporto di decisioni importanti, dai controlli del credito alle richieste di visto, in fase di udienza preliminare o dalla polizia. Anche il sistema di immigrazione statunitense è stato dichiarato razzista, ma nella maggior parte dei casi, ricostruire con precisione il funzionamento di questi algoritmi per portarne alla luce i pregiudizi è difficile in quanto molti sono brevettati e poco soggetti a supervisione pubblica.

Aumenta il numero di proteste: negli Stati Uniti, alcuni dipartimenti di polizia stanno sospendendo l’utilizzo di algoritmi predittivi controversi e le aziende tecnologiche hanno ritirato i propri software di riconoscimento facciale. A febbraio un tribunale olandese ha dichiarato illegale un sistema che calcolava la probabilità che un individuo potesse aver commesso una frode previdenziale o fiscale in quanto prendeva ingiustamente di mira le minoranze. La decisione del ministero dell’Interno britannico di rivedere il proprio sistema senza attendere una sentenza legale potrebbe rivelarsi una pietra miliare per il settore.

Immagine di: James Cridland / Flickr

(lo)

Related Posts
Total
0
Share