Skip to main content
ANNA MONEYMAKER/GETTY IMAGES

Secondo gli esperti, l’enfasi posta sull’etichettatura dei contenuti, sul watermarking e sulla trasparenza rappresenta un importante passo avanti.

Gli Stati Uniti hanno definito la più ampia serie di regole e linee guida sull’IA in un provvedimento legislativo emesso oggi dal Presidente Joe Biden. Il provvedimento richiederà alle aziende di IA una maggiore trasparenza sul funzionamento dei loro modelli e stabilirà una serie di nuovi standard, in particolare per l’etichettatura dei contenuti generati dall’IA.

L’obiettivo dell’ordine, secondo la Casa Bianca, è quello di migliorare “la sicurezza e la protezione dell’IA”. L’ordine prevede inoltre che gli sviluppatori condividano con il governo degli Stati Uniti i risultati dei test di sicurezza per i nuovi modelli di IA, nel caso in cui i test dimostrino che la tecnologia potrebbe rappresentare un rischio per la sicurezza nazionale. Si tratta di una mossa sorprendente che invoca il Defense Production Act, tipicamente utilizzato nei momenti di emergenza nazionale.

Il provvedimento porta avanti i requisiti volontari per la politica sull’IA che la Casa Bianca aveva stabilito in agosto, anche se manca di specifiche su come le regole saranno applicate. I provvedimenti sono inoltre soggetti all’annullamento in qualsiasi momento da parte di un futuro presidente e non hanno la legittimità di una legislazione congressuale sull’IA, che sembra improbabile nel breve termine. 

“Il Congresso è profondamente polarizzato e persino disfunzionale, al punto che è molto improbabile che produca una legislazione significativa sull’IA nel prossimo futuro”, afferma Anu Bradford, professore di legge alla Columbia University specializzato in regolamentazione digitale.

Ciononostante, gli esperti di IA hanno salutato l’ordine come un importante passo avanti, soprattutto grazie alla sua attenzione al watermarking e agli standard stabiliti dal National Institute of Standards and Technology (NIST). Tuttavia, altri sostengono che non si spinga abbastanza in là per proteggere le persone dai danni immediati causati dall’IA.

Ecco le tre cose più importanti da sapere sul provvedimento e sull’impatto che potrebbe avere.

Quali sono le nuove regole per l’etichettatura dei contenuti generati dall’intelligenza artificiale?

Il provvedimento della Casa Bianca richiede al Dipartimento del Commercio di sviluppare una guida per l’etichettatura dei contenuti generati dall’IA. Le aziende di IA utilizzeranno queste indicazioni per sviluppare strumenti di etichettatura e watermarking che la Casa Bianca spera vengano adottati dalle agenzie federali. “Le agenzie federali utilizzeranno questi strumenti per consentire agli americani di sapere facilmente che le comunicazioni che ricevono dal loro governo sono autentiche e per dare l’esempio al settore privato e ai governi di tutto il mondo”, si legge in una scheda informativa condivisa dalla Casa Bianca nel fine settimana.

La speranza è che l’etichettatura delle origini dei contenuti testuali, audio e visivi ci renda più facile sapere cosa è stato creato utilizzando l’IA online. Questo tipo di strumenti è ampiamente proposto come soluzione a problemi legati all’IA, come i deepfakes e la disinformazione, e in un impegno volontario con la Casa Bianca annunciato ad agosto, aziende leader nel settore dell’IA come Google e Open AI si sono impegnate a sviluppare tali tecnologie.

Il problema è che tecnologie come i watermark sono ancora in fase di sviluppo. Al momento non esistono metodi del tutto affidabili per etichettare il testo o per verificare se un contenuto è stato generato dalla macchina. Gli strumenti di rilevamento dell’intelligenza artificiale sono ancora facili da ingannare.

L’ordine esecutivo non impone agli operatori del settore o alle agenzie governative di utilizzare queste tecnologie.

Domenica, durante una telefonata con i giornalisti, un portavoce della Casa Bianca ha risposto a una domanda di MIT Technology Review, che chiedeva se fossero previsti requisiti per il futuro, dicendo: “Posso immaginare, onestamente, una versione di una telefonata come questa tra qualche anno e ci sarà una firma crittografica allegata che vi permetterà di sapere che state effettivamente parlando con il team di stampa della Casa Bianca e non con una versione AI”. L’ordine esecutivo intende “facilitare lo sviluppo tecnologico che deve avvenire prima di arrivare a quel punto”.

La Casa Bianca ha dichiarato che intende promuovere lo sviluppo e l’uso di queste tecnologie con la Coalition for Content Provenance and Authenticity, chiamata iniziativa C2PA. Come abbiamo riportato in precedenza, l’iniziativa e la comunità open-source a essa affiliata sono cresciute rapidamente negli ultimi mesi con la corsa delle aziende a etichettare i contenuti generati dall’intelligenza artificiale. Il collettivo comprende alcune aziende importanti come Adobe, Intel e Microsoft e ha ideato un nuovo protocollo Internet che utilizza tecniche crittografiche per codificare le informazioni sulle origini di un contenuto.

La coalizione non ha un rapporto formale con la Casa Bianca e non è chiaro come si configurerebbe questa collaborazione. In risposta alle domande, Mounir Ibrahim, co-presidente del team per gli affari governativi, ha dichiarato: “C2PA è in contatto regolare con vari uffici del Consiglio di Sicurezza Nazionale (NSC) e della Casa Bianca da qualche tempo”.

L’enfasi sullo sviluppo del watermarking è positiva, afferma Emily Bender, docente di linguistica all’Università di Washington. La professoressa spera che i sistemi di etichettatura dei contenuti possano essere sviluppati anche per il testo; le attuali tecnologie di watermarking funzionano meglio su immagini e audio. “Naturalmente non si tratta di un obbligo di filigrana, ma anche solo di una prova dell’esistenza di sistemi ragionevoli per farlo sarebbe un passo importante”, afferma Bender.

Questo provvedimento avrà i suoi effetti? È applicabile?

Sebbene il provvedimento di Biden vada oltre i precedenti tentativi del governo statunitense di regolamentare l’IA, pone molta più enfasi sulla definizione di best practice e standard che su come, o addirittura se, le nuove direttive saranno applicate.

L’ordine chiede al National Institute of Standards and Technology di stabilire degli standard per i test estensivi “red team”, ovvero per i test che mirano a rompere i modelli al fine di esporre le vulnerabilità, prima che i modelli vengano lanciati. Il NIST è stato in qualche modo efficace nel documentare l’accuratezza o la distorsione dei sistemi di IA come il riconoscimento facciale. Nel 2019, uno studio del NIST su oltre 200 sistemi di riconoscimento facciale ha rivelato diffusi pregiudizi razziali nella tecnologia.

Tuttavia, l’ordine esecutivo non richiede che le aziende di IA aderiscano agli standard o ai metodi di test del NIST. “Molti aspetti dell’ordine esecutivo si basano ancora sulla cooperazione volontaria delle aziende tecnologiche”, afferma Bradford, professore di diritto alla Columbia.

Il provvedimento richiede a tutte le aziende che sviluppano nuovi modelli di IA le cui dimensioni computazionali superano una certa soglia di notificare al governo federale la formazione del sistema e di condividere i risultati dei test di sicurezza in conformità con il Defense Production Act. Questa legge è stata tradizionalmente utilizzata per intervenire nella produzione commerciale in tempi di guerra o di emergenze nazionali come la pandemia di Covid-19, quindi si tratta di un modo insolito per far passare i regolamenti. Un portavoce della Casa Bianca ha dichiarato che questo mandato sarà esecutivo e si applicherà a tutti i futuri modelli commerciali di IA negli Stati Uniti, ma probabilmente non si applicherà ai modelli di IA già lanciati. La soglia è fissata a un punto in cui tutti i principali modelli di IA che potrebbero comportare rischi “per la sicurezza nazionale, la sicurezza economica o la salute e la sicurezza pubblica nazionale” potrebbero rientrare nell’ordine, secondo la scheda informativa della Casa Bianca.

Il provvedimento chiede inoltre alle agenzie federali di sviluppare regole e linee guida per diverse applicazioni, come il sostegno ai diritti dei lavoratori, la protezione dei consumatori, la garanzia di una concorrenza leale e la gestione dei servizi governativi. Queste linee guida più specifiche danno priorità alla tutela della privacy e dei pregiudizi.

“In tutto questo, almeno, c’è il potere di altre agenzie, che potrebbero essere in grado di affrontare seriamente questi problemi”, afferma Margaret Mitchell, ricercatrice e responsabile dell’etica presso la startup Hugging Face. “Anche se con una battaglia molto più difficile ed estenuante per alcune delle persone più negativamente colpite dall’IA, per far sì che i loro diritti vengano effettivamente presi sul serio”.

Qual è stata finora la reazione al provvedimento?

Le principali aziende tecnologiche hanno accolto con favore il provvedimento.

Brad Smith, vicepresidente e presidente di Microsoft, l’ha salutato come “un altro passo avanti fondamentale nella governance della tecnologia AI”. Il presidente di Google per gli affari globali, Kent Walker, ha dichiarato che l’azienda “non vede l’ora di impegnarsi in modo costruttivo con le agenzie governative per massimizzare il potenziale dell’IA, anche rendendo i servizi governativi migliori, più veloci e più sicuri”.

“È bello vedere che la Casa Bianca investe nella crescita dell’IA creando un quadro di riferimento per le pratiche responsabili di IA”, ha dichiarato Dana Rao, general counsel e chief trust officer di Adobe.

L’approccio della Casa Bianca rimane amichevole nei confronti della Silicon Valley, enfatizzando l’innovazione e la concorrenza piuttosto che le limitazioni e le restrizioni. La strategia è in linea con le priorità politiche per la regolamentazione dell’IA definite dal leader della maggioranza del Senato Chuck Schumer e cristallizza ulteriormente il tocco leggero dell’approccio americano alla regolamentazione dell’IA.

Tuttavia, alcuni ricercatori di IA affermano che questo tipo di approccio è fonte di preoccupazione. “La preoccupazione più grande per me è che si ignora molto lavoro su come addestrare e sviluppare modelli per ridurre al minimo i danni prevedibili”, dice Mitchell.

Invece di prevenire i danni dell’IA prima della sua diffusione, ad esempio migliorando le pratiche delle aziende tecnologiche in materia di dati, la Casa Bianca sta utilizzando un approccio “alla rinfusa”, affrontando i problemi già emersi, aggiunge. 

L’attesissimo provvedimento sull’intelligenza artificiale arriva due giorni prima del vertice britannico sulla sicurezza dell’intelligenza artificiale e tenta di posizionare gli Stati Uniti come leader globale della politica sull’intelligenza artificiale.

Probabilmente avrà implicazioni anche al di fuori degli Stati Uniti, aggiunge Bradford. Darà il tono al vertice del Regno Unito e probabilmente incoraggerà l’Unione Europea a finalizzare il suo AI Act, poiché l’ordine esecutivo invia un chiaro messaggio che gli Stati Uniti sono d’accordo con molti degli obiettivi politici dell’UE.

“Il provvedimento è probabilmente il meglio che possiamo aspettarci dal governo statunitense in questo momento”, afferma Bradford.