SARAH ROGERS/MITTR | GETTY

La legge sull’AI è stata approvata. Ecco cosa cambierà (e cosa no)

Il lavoro duro inizia ora.

È ufficiale. Dopo tre anni, l’AI Act, la nuova legge europea sull’intelligenza artificiale, ha superato l’ultimo ostacolo burocratico la scorsa settimana, quando il Parlamento europeo ha votato per la sua approvazione. (Potete recuperare le cinque cose principali da sapere sull’AI Act in questo articolo che ho scritto l’anno scorso).

Anche per me, personalmente, questa è la fine di un’era: sono stata la prima giornalista a fare lo scoop su una prima bozza della legge sull’IA nel 2021 e da allora ho seguito da vicino il circo delle lobby che ne è seguito.

Ma la realtà è che il duro lavoro inizia ora. La legge entrerà in vigore a maggio e i cittadini dell’UE inizieranno a vedere i cambiamenti entro la fine dell’anno. Le autorità di regolamentazione dovranno organizzarsi per applicare correttamente la legge e le aziende avranno fino a tre anni per conformarsi alla legge.

Ecco cosa cambierà (e cosa non cambierà):

1. Alcuni usi dell’IA saranno vietati nel corso dell’anno

La legge prevede restrizioni sui casi di utilizzo dell’IA che presentano un rischio elevato per i diritti fondamentali delle persone, come ad esempio nell’assistenza sanitaria, nell’istruzione e nella polizia. Questi casi saranno vietati entro la fine dell’anno.

Inoltre, la nuova legge vieta alcuni usi che si ritiene rappresentino un “rischio inaccettabile”. Si tratta di casi d’uso piuttosto strani e ambigui, come i sistemi di IA che utilizzano “tecniche subliminali, manipolative o ingannevoli per distorcere il comportamento e compromettere il processo decisionale informato” o sfruttano persone vulnerabili. L’AI Act vieta anche i sistemi che deducono caratteristiche sensibili come le opinioni politiche o l’orientamento sessuale di una persona e l’uso di software di riconoscimento facciale in tempo reale nei luoghi pubblici. La creazione di banche dati per il riconoscimento facciale attraverso lo scraping di Internet alla Clearview AI sarà vietata.

Tuttavia, ci sono alcuni limiti piuttosto importanti. Le forze dell’ordine possono ancora utilizzare dati biometrici sensibili e software di riconoscimento facciale in luoghi pubblici per combattere reati gravi, come il terrorismo o i rapimenti. Alcune organizzazioni per i diritti civili, come l’organizzazione per i diritti digitali Access Now, hanno definito l’AI Act un “fallimento per i diritti umani” perché non ha vietato del tutto casi d’uso controversi dell’AI come il riconoscimento facciale. Inoltre, mentre le aziende e le scuole non possono utilizzare software che pretendono di riconoscere le emozioni delle persone, possono farlo se si tratta di motivi medici o di sicurezza.

2. Sarà più evidente quando si interagisce con un sistema di intelligenza artificiale

Le aziende tecnologiche dovranno etichettare i deepfakes e i contenuti generati dall’IA e avvisare le persone quando interagiscono con un chatbot o un altro sistema di IA. L’AI Act richiederà inoltre alle aziende di sviluppare i media generati dall’AI in modo da renderne possibile l’individuazione. Si tratta di una notizia promettente nella lotta alla disinformazione e darà un forte impulso alla ricerca sul watermarking e sulla provenienza dei contenuti.

Tuttavia, tutto questo è più facile a dirsi che a farsi, e la ricerca è molto indietro rispetto a quanto richiesto dalla normativa. Le filigrane sono ancora una tecnologia sperimentale e facilmente preda di manomissioni. È ancora difficile individuare in modo affidabile i contenuti generati dall’intelligenza artificiale. Alcuni sforzi sono promettenti, come il C2PA, un protocollo internet open-source, ma è necessario molto più lavoro per rendere affidabili le tecniche di provenienza e per costruire uno standard a livello industriale.

3. I cittadini possono presentare reclamo se sono stati danneggiati da un’IA

La legge sull’IA istituirà un nuovo Ufficio europeo per l’IA con il compito di coordinare la conformità, l’attuazione e l’applicazione della legge (e stanno assumendo personale). Grazie all’AI Act, i cittadini dell’UE possono presentare reclami sui sistemi di intelligenza artificiale quando sospettano di essere stati danneggiati da uno di essi e possono ricevere spiegazioni sul perché i sistemi di intelligenza artificiale abbiano preso le decisioni che hanno preso. È un primo passo importante per dare alle persone più potere in un mondo sempre più automatizzato. Tuttavia, ciò richiede che i cittadini abbiano un livello decente di conoscenza dell’IA e che siano consapevoli di come avvengono i danni causati dagli algoritmi. Per la maggior parte delle persone, questi concetti sono ancora molto estranei e astratti.

4. Le aziende di IA dovranno essere più trasparenti

La maggior parte degli utilizzi dell’IA non richiederà la conformità all’AI Act. Solo le aziende che sviluppano tecnologie di IA in settori “ad alto rischio”, come le infrastrutture critiche o la sanità, avranno nuovi obblighi quando la legge entrerà pienamente in vigore tra tre anni. Questi includono una migliore governance dei dati, la garanzia di una supervisione umana e la valutazione di come questi sistemi influenzeranno i diritti delle persone.

Le aziende di IA che sviluppano “modelli di IA per scopi generici”, come i modelli linguistici, dovranno anche creare e conservare la documentazione tecnica che mostra come hanno costruito il modello, come rispettano la legge sul copyright e pubblicare un report, pubblicamente disponibile, di quali dati sono stati utilizzati per addestrare il modello di IA.

Si tratta di un grande cambiamento rispetto all’attuale status quo, in cui le aziende tecnologiche mantengono il riserbo sui dati utilizzati nei loro modelli, e richiederà una revisione delle disordinate pratiche di gestione dei dati del settore dell’IA.

Le aziende con i modelli di IA più potenti, come GPT-4 e Gemini, dovranno affrontare requisiti più onerosi, come l’obbligo di eseguire valutazioni dei modelli, valutazioni e mitigazioni dei rischi, garantire la protezione della cybersecurity e segnalare eventuali incidenti in cui il sistema di IA ha fallito. Le aziende che non si adegueranno dovranno pagare multe salate o i loro prodotti potrebbero essere banditi dall’UE.

Vale anche la pena di notare che i modelli di IA open-source gratuiti che condividono ogni dettaglio di come è stato costruito il modello, compresa la sua architettura, i parametri e i pesi, sono esenti da molti degli obblighi dell’AI Act.

Related Posts
Total
0
Share