I miti da sfatare sulle AI

Un programma pilota chiamato Sesame Credit ha dato vita a molti sospetti sull’utilizzo delle AI da parte di regimi autoritari. L’ironia è che in Occidente esistono già sistemi che classificano e penalizzano i cittadini

Per quanto gli Stati Uniti e l’UE possano avere idee diverse su come regolamentare la tecnologia, i legislatori sembrano concordare su una cosa: l’Occidente deve vietare programmi come il punteggio sociale basato sull’intelligenza artificiale.

Da quanto capiscono, l’applicazione di un punteggio sociale è una pratica in cui i governi autoritari, in particolare la Cina, classificano l’affidabilità delle persone e le puniscono per comportamenti indesiderati, come il furto o il mancato rimborso dei prestiti.

Essenzialmente, è visto come un superpunteggio distopico assegnato a ciascun cittadino.

L’UE sta attualmente negoziando una nuova legge chiamata AI Act, che vieterà agli Stati membri, e forse anche alle società private, di implementare un tale sistema.

Il problema è che “vieta sostanzialmente qualcosa di indefinibile come l’aria rarefatta”, afferma Vincent Brussee, analista del Mercator Institute for China Studies, un think tank tedesco.

Nel 2014, la Cina ha annunciato un piano semestrale per il lancio di un sistema che premia le azioni che creano fiducia nella società e penalizza il contrario. Otto anni dopo, è appena stato pubblicato un disegno di legge che tenta di codificare i progetti pilota del credito sociale del passato e guidare la futura implementazione.

Ci sono stati alcuni esperimenti locali controversi, come uno nella piccola città di Rongcheng nel 2013, che ha assegnato a ogni residente un punteggio di credito personale iniziale di 1.000 che può essere aumentato o diminuito in base a come vengono giudicate le sue azioni. Le persone ora possono rifiutarsi di partecipare e il governo locale ha rimosso alcuni criteri controversi.

Ma questi non hanno guadagnato una maggiore diffusione altrove e non si applicano all’intera popolazione cinese. Non esiste un sistema di credito sociale onniveggente a livello nazionale con algoritmi che classificano le persone.

Come spiega il mio collega Zeyi Yang, “la realtà è che quel terrificante sistema non esiste, e nemmeno il governo centrale sembra avere molta voglia di realizzarlo”.

Ciò che è stato implementato è per lo più piuttosto low-tech. È un “insieme di tentativi di regolamentare il settore del credito finanziario, consentire alle agenzie governative di condividere i dati tra loro e promuovere valori morali sanciti dallo stato”, scrive Zeyi.

Kendra Schaefer, un partner di Trivium China, una società di consulenza di ricerca con sede a Pechino, autrice di un rapporto sull’argomento per il governo degli Stati Uniti, non è riuscita a trovare un solo caso in cui la raccolta di dati in Cina abbia portato a sanzioni automatizzate senza intervento umano.

Il South China Morning Post ha scoperto che a Rongcheng, i “responsabili di raccogliere di informazioni” umani andavano in giro per la città e si annotavano il comportamento scorretto delle persone usando carta e penna.

Il mito ha origine da un programma pilota chiamato Sesame Credit, sviluppato dalla società tecnologica cinese Alibaba. Si è trattato di un tentativo di valutare l’affidabilità creditizia delle persone utilizzando i dati dei clienti in un momento in cui la maggior parte dei cinesi non aveva una carta di credito, afferma Brussee.

Questo programma si è fuso con il sistema di credito sociale generale in ciò che Brussee descrive come un “gioco di sussurri cinesi”. E l’equivoco ha assunto una vita propria.

L’ironia è che mentre i politici statunitensi ed europei descrivono questo genere di programma come un problema associato ai regimi autoritari, in Occidente esistono già sistemi che classificano e penalizzano le persone. Gli algoritmi progettati per automatizzare le decisioni vengono implementati in massa e utilizzati per negare alle persone alloggio, lavoro e servizi di base.

Ad esempio, ad Amsterdam, le autorità hanno utilizzato un algoritmo per classificare i giovani dei quartieri svantaggiati in base alla loro probabilità di diventare criminali. Affermano che l’obiettivo è prevenire la criminalità e contribuire a offrire un sostegno migliore e più mirato.

Ma in realtà, secondo i gruppi per i diritti umani, il programma ha aumentato il grado di stigmatizzazione e discriminazione. I giovani che finiscono in questa lista devono affrontare più fermi da parte della polizia, visite domiciliari da parte delle autorità e una supervisione più rigorosa da parte della scuola e degli assistenti sociali.

È facile prendere posizione contro un algoritmo distopico che in realtà non esiste. Ma poiché i legislatori sia dell’UE che degli Stati Uniti si sforzano di costruire una comprensione condivisa della governance dell’AI, farebbero meglio a prestare più attenzione a ciò che avviene.

Gli americani non hanno nemmeno una legge federale sulla privacy che li protegga dal processo decisionale algoritmico

C’è un disperato bisogno che i governi conducano audit onesti e approfonditi sul modo in cui le autorità e le aziende utilizzano l’intelligenza artificiale per prendere decisioni sulle nostre vite. Il fatto che i risultati di simili studi possano non piacere rende solo più importante condurli.

Related Posts
Total
0
Share