intelligenza artificiale

L’Unione Europea contro le conseguenze (negative) dell’AI

Deepfake, riconoscimento facciale, e usi impropri degli algoritmi. L’Unione Europea sta pianificando un nuovo disegno di legge per limitare le possibili conseguenze negative dell’utilizzo dell’AI

Melissa Heikkilä

È un selvaggio West nel mondo dell’intelligenza artificiale. Le applicazioni di AI sono sempre più utilizzate per prendere decisioni importanti sulla vita degli esseri umani con poca o nessuna supervisione o responsabilità. Le implicazioni possono essere devastanti: arresti illeciti, valutazioni errate degli studenti e persino tracolli finanziari. Le donne, i gruppi emarginati e le persone di colore spesso sopportano il peso maggiore della propensione all’errore dell’AI. 

L’Unione Europea pensa di avere una soluzione: la madre di tutte le leggi in questo settore. L’AI Act dovrebbe essere la prima a limitare questi danni e stabilire un nuovo standard globale per la supervisione dell’AI a livello globale. Ma il mondo della legislazione dell’UE può essere complicato e opaco. Ecco una guida rapida a tutto ciò è importante sapere su questo provvedimento innovativo. Il disegno di legge è attualmente in fase di modifica da parte dei membri del Parlamento europeo e dei paesi dell’UE. 

Qual è il problema?

L’AI Act è estremamente ambizioso. Prevede controlli aggiuntivi per gli usi “ad alto rischio” dell’AI, con l’inclusione dei sistemi utilizzati per valutare gli esami, reclutare dipendenti o aiutare i giudici a prendere decisioni in materia di diritto e giustizia. La prima bozza del disegno di legge include anche divieti sugli usi dell’AI ritenuti “inaccettabili”, come l’attribuzione di punteggi alle persone sulla base della loro affidabilità percepita. 

Il disegno di legge limiterebbe anche l’uso del riconoscimento facciale da parte delle forze dell’ordine nei luoghi pubblici. Un gruppo importante, inclusi membri del Parlamento europeo e paesi come la Germania, vuole un divieto totale o una moratoria sul suo utilizzo in pubblico sia da parte delle forze dell’ordine sia da parte delle aziende private, per contrastare fenomeni di sorveglianza di massa. 

Se l’UE riuscisse a farcela, sarebbe una svolta nella diffusione di questa tecnologia. Alcuni stati e città degli Stati Uniti, come San Francisco e Virginia, hanno introdotto restrizioni sul riconoscimento facciale, ma il divieto dell’UE si applicherebbe a 27 paesi e a una popolazione di oltre 447 milioni di persone. 

Come influenzerà i cittadini? 

In teoria, dovrebbe proteggere le persone dai peggiori effetti collaterali dell’AI, assicurando che le applicazioni affrontino almeno un certo livello di controllo e responsabilità. I cittadini saranno protetti dalle forme più dannose di AI, afferma Brando Benifei, un membro italiano del Parlamento europeo, uno dei principali responsabili del team che sta lavorando al disegno di legge. 

L’AI act richiede che le persone vengano avvisate quando si trovano davanti a deepfake, sistemi di riconoscimento biometrico o applicazioni di intelligenza artificiale che affermano di essere in grado di leggere le loro emozioni. I legislatori stanno anche discutendo se la legge debba istituire un meccanismo per consentire alle persone di sporgere denuncia e chiedere riparazione quando sono state danneggiate da un sistema di intelligenza artificiale. 

Anche il Parlamento europeo, una delle istituzioni dell’UE che lavora per modificare il disegno di legge, sta spingendo per il divieto dei sistemi di polizia predittiva. Tali sistemi utilizzano l’AI per analizzare grandi set di dati per schierare preventivamente la polizia in aree a forte tasso di criminalità o per cercare di prevedere la potenziale pericolosità di una persona. Questi sistemi sono molto controversi e i critici affermano che sono spesso razzisti e non trasparenti.

E fuori dall’UE?

Il GDPR, il regolamento sulla protezione dei dati dell’UE, è un fiore all’occhiello tecnologico ed è stato copiato ovunque, dalla California all’India. L’approccio all’AI adottato dall’UE, che prende di mira le forme più estreme dell’intelligenza artificiale, è uno su cui la maggior parte dei paesi sviluppati concorda. Se gli europei riescono a creare un modo coerente per regolamentare la tecnologia, potrebbe fungere da modello per altri paesi che sperano di farlo. 

Le aziende statunitensi, nel rispetto dell’AI Act, finiranno anche per innalzare i propri standard per i consumatori americani in materia di trasparenza e responsabilità“, afferma Marc Rotenberg, responsabile del Center for AI and Digital Policy, un’organizzazione no profit attenta alle ricadute politiche dell’AI.

Il disegno di legge è seguito da vicino anche dall’amministrazione Biden. Gli Stati Uniti ospitano alcuni dei più grandi laboratori di intelligenza artificiale del mondo, come quelli di Google AI, Meta e OpenAI, e guidano diverse classifiche globali nella ricerca sull’AI, quindi la Casa Bianca vuole sapere come qualsiasi regolamento potrebbe applicarsi a queste aziende.

Per ora, figure influenti del governo degli Stati Uniti come il consigliere per la sicurezza nazionale Jake Sullivan, il segretario al Commercio Gina Raimondo e Lynne Parker, a capo del National AI Initiative Office della Casa Bianca, hanno accolto con favore lo sforzo dell’Europa di definire una regolamentazione. 

A differenza degli iniziali commenti catastrofici sul GDPR, gli Stati Uniti hanno buone ragioni per accogliere favorevolmente la nuova legislazione. Il paese è estremamente preoccupato per la crescente influenza della Cina nella tecnologia e considera il predominio occidentale in ambito tecnologico una questione di prevalenza dei “valori democratici”. “E’ suo interesse, quindi, mantenere buoni rapporti con l’UE, un alleato che la pensa allo stesso modo“, spiega Rotenberg. 

Quali sono le sfide più grandi? 

Alcuni dei requisiti del disegno di legge sono tecnicamente impossibili da rispettare al momento. La prima bozza del disegno di legge richiede che i set di dati siano privi di errori e che le persone siano in grado di “comprendere appieno” come funzionano i sistemi di intelligenza artificiale. I set di dati utilizzati per addestrare i sistemi di intelligenza artificiale sono vasti ed esercitare un controllo rigoroso richiederebbe migliaia di ore di lavoro, anche accettando l’idea che sia possibile verificare una cosa del genere. E le reti neurali di oggi sono così complesse che persino i loro creatori non comprendono appieno come giungano alle loro conclusioni. 

Le aziende tecnologiche sono anche profondamente a disagio riguardo ai requisiti per consentire a revisori esterni o autorità di regolamentazione l’accesso al loro codice sorgente e agli algoritmi al fine di far rispettare la legge. “L’attuale stesura della legge sta creando molto disagio perché sembra una strada impraticabile“, afferma Miriam Vogel, presidente e CEO di EqualAI, un’organizzazione no profit che lavora per ridurre i pregiudizi inconsci nei sistemi di AI.  E’ anche a capo del National AI Advisory Committee, di recente fondazione, che fornisce consulenza alla Casa Bianca sulla politiche nel campo dell’intelligenza artificiale. 

C’è inoltre una gigantesca lotta in corso sul fatto che l’AI Act debba vietare l’uso del riconoscimento facciale a titolo definitivo. È un passaggio controverso perché i paesi dell’UE odiano quando Bruxelles fornisce direttive su come gestire le questioni di sicurezza nazionale o di applicazione della legge. Diversi paesi, come la Francia, vogliono eccezioni per l’utilizzo del riconoscimento facciale per proteggere la sicurezza nazionale. Al contrario, il nuovo governo della Germania, un altro grande paese europeo e una voce influente nel processo decisionale dell’UE, ha affermato di sostenere un divieto totale dell’uso del riconoscimento facciale nei luoghi pubblici. 

Un’altra grande battaglia riguarderà quali tipi di AI verranno classificati come “ad alto rischio”. Il disegno di legge ha un elenco che va dai test di rilevamento della menzogna ai sistemi utilizzati per allocare i pagamenti del welfare. Ci sono due schieramenti politici opposti: uno teme che l’ampio campo di applicazione del regolamento rallenterà l’innovazione e l’altro sostiene che il disegno di legge così com’è scritto non farà abbastanza per proteggere le persone da eventuali gravi conseguenze negative. 

Verrà sacrificata l’innovazione? 

Una critica comune da parte dei lobbisti della Silicon Valley è che il regolamento creerà fardelli burocratici per le aziende di intelligenza artificiale. L’Europa non è d’accordo. L’UE ribatte che la legge si applicherà solo all’insieme più rischioso di usi dell’AI, che secondo la Commissione europea coprirebbero solo il 5-15 per cento di tutte le applicazioni di AI. 

Le organizzazioni che non si conformano rischiano multe fino a 30 milioni di euro o, per le aziende, fino al 6 per cento del fatturato annuo totale mondiale. L’esperienza dimostra che l’Europa non ha paura di infliggere multe alle aziende tecnologiche. Amazon è stata multata di 746 milioni di euro nel 2021 per aver violato il GDPR e Google è stata multata di 4,3 miliardi di euro nel 2018 per aver violato le leggi antitrust del blocco. 

Quando entrerà in vigore? 

Ci vorrà almeno un altro anno prima che si arrivi a un testo definitivo e un altro paio di anni prima che le imprese vi si debbano conformare. C’è la possibilità che elaborare i dettagli di un disegno di legge così completo con così tanti elementi controversi possa trascinarsi molto più a lungo. Ci sono voluti più di quattro anni per negoziare il GDPR e sei anni prima che entrasse in vigore. Nel mondo del processo legislativo dell’UE, tutto è possibile. 

Immagine: Markus Winkler Unsplash

(rp)

Related Posts
Total
1
Share