L’Europa vuole un’intelligenza artificiale responsabile

Un nuovo disegno di legge consentirà ai consumatori di citare in giudizio le aziende per danni, se saranno in grado di dimostrare che la sua AI li ha danneggiati

L’UE sta creando nuove regole per rendere più facile citare in giudizio per danni le società di AI. Un disegno di legge presentato questo mese, che probabilmente diventerà legge tra un paio d’anni, rientra nel piano dell’Europa volto ad impedire che gli sviluppatori di AI possano rilasciare sistemi pericolosi.

E mentre le aziende tecnologiche si lamentano che una simile legge potrebbe frenare l’innovazione, gli attivisti dalla parte dei consumatori dichiarano che non farebbe abbastanza.

Le potenti tecnologie di intelligenza artificiale stanno plasmando sempre più le nostre vite, relazioni e società e i loro danni sono ben documentati. Gli algoritmi dei social media aumentano la disinformazione, i sistemi di riconoscimento facciale sono spesso altamente discriminatori e i sistemi di intelligenza artificiale predittiva utilizzati per approvare o rifiutare i prestiti possono essere meno accurati nel caso delle minoranze.

Il nuovo disegno di legge, chiamato Direttiva sulla Responsabilità dell’IA, darà grinta alla legge europea sulle AI. L’AI Act richiederà l’implementazione di controlli aggiuntivi negli ambiti di utilizzo “ad alto rischio” delle AI con il maggior potenziale di danneggiare le persone, compresi i sistemi di polizia, reclutamento o assistenza sanitaria.

La nuova legge darebbe a persone e aziende il diritto di citare in giudizio per danni i responsabili del lancio di un sistema di intelligenza artificiale. L’obiettivo è ritenere responsabili sviluppatori, produttori e utenti delle tecnologie e richiedere loro di spiegare come sono stati costruiti e formati i loro sistemi di intelligenza artificiale. Le aziende tecnologiche che non rispettano le regole rischiano azioni collettive in tutta l’UE.

Ad esempio, persone in cerca di lavoro in grado di dimostrare che un sistema di intelligenza artificiale per lo screening dei curriculum li ha discriminati, potrebbero chiedere a un tribunale di costringere la società di intelligenza artificiale a concedere loro l’accesso alle informazioni sul sistema di modo da poter identificare i responsabili e scoprire cosa è andato storto. L’accesso a questo genere di informazioni permette di raccogliere le informazioni necessarie a sporgere denuncia.

La proposta deve ancora farsi strada nel processo legislativo dell’UE, che richiederà almeno un paio d’anni. Sarà modificato dai membri del Parlamento europeo e dai governi dell’UE e probabilmente dovrà affrontare intense pressioni da parte delle aziende tecnologiche, secondo cui tali regole potrebbero avere un effetto “frenante” sull’innovazione.

Che riesca o meno, questa nuova legislazione dell’UE avrà un effetto a catena sulla regolamentazione delle AI in tutto il mondo.

In particolare, il disegno di legge potrebbe avere un impatto negativo sullo sviluppo del software, afferma Mathilde Adjutor, policy manager europea per il gruppo di lobbying tecnologico CCIA, che rappresenta aziende come cui Google, Amazon e Uber.

Secondo le nuove regole, “gli sviluppatori rischiano non solo di diventare responsabili per i bug del software, ma anche per il potenziale impatto del software sulla salute mentale degli utenti”, afferma.

Secondo Imogen Parker, direttrice associata dell’Ada Lovelace Institute, un istituto di ricerca sull’intelligenza artificiale, il disegno di legge sposterà il potere dalle aziende e lo riporterà ai consumatori, una correzione che considera particolarmente importante dato il potenziale discriminatorio dell’IA.

E il disegno di legge garantirà che quando un sistema di intelligenza artificiale causa danni, ci sia un modo comune per chiedere un risarcimento in tutta l’UE, afferma Thomas Boué, direttore di politica europea per la lobby tecnologica BSA, i cui membri includono Microsoft e IBM.

Tuttavia, alcune organizzazioni e attivisti per i diritti dei consumatori ritengono che le proposte non siano sufficienti e stabiliscano piuttosto una soglia troppo alta per i consumatori che vogliono presentare reclami.

Ursula Pachl, vicedirettrice generale dell’Organizzazione europea dei consumatori, afferma che la proposta è una “vera delusione“, perché lascia ai consumatori la responsabilità di dimostrare che un sistema di intelligenza artificiale li ha danneggiati o che uno sviluppatore di intelligenza artificiale è stato negligente.

“In un mondo di sistemi di intelligenza artificiale a “scatola nera”, altamente complessi e oscuri, sarà praticamente impossibile per il consumatore utilizzare le nuove regole“, afferma Pachl. Ad esempio, dice, sarà estremamente difficile provare che la discriminazione razziale nei confronti di qualcuno sia dovuta al modo in cui è stato istituito un sistema di punteggio del credito.

Related Posts
Total
0
Share