I 10 principi per rendere l’IA più sicura

La mossa della Casa Bianca è l’ultimo sviluppo dell’American AI Initiative, un programma lanciato su ordine esecutivo dal presidente Trump all’inizio dello scorso anno per creare una strategia nazionale per l’IA e fa parte di una politica in corso per mantenere la leadership americana nel settore.

di Karen Hao

I principi, resi noti dall’Office of Science and Technology Policy (OSTP) governativo, hanno tre obiettivi principali: assicurare l’impegno pubblico, limitare il mancato rispetto delle normative e, soprattutto, promuovere un’intelligenza artificiale affidabile che sia equa, trasparente e sicura.

Il loro carattere generale, ha dichiarato il vice capo responsabile tecnologico degli Stati Uniti Lynne Parker durante una conferenza stampa, consente a ciascun ente governativo di creare regolamenti più specifici su misura per il proprio settore.

In pratica, alle agenzie federali sarà ora richiesto di presentare un memorandum a OSTP per dimostrare che qualsiasi proposta di regolamento relativo all’intelligenza artificiale soddisfi i suddetti principi. 

Anche se l’ufficio non ha l’autorità per bocciare i regolamenti proposti, la procedura potrebbe comunque garantire la pressione e il coordinamento necessari per mantenere un certo standard.

“OSTP sta tentando di creare un setaccio normativo”, afferma R. David Edelman, direttore del Project on Technology, the Economy and National Security del MIT. “Un processo come questo sembra un tentativo ragionevole di inserire un controllo di qualità nella nostra politica di intelligenza artificiale”.

I principi, da me commentati, sono i seguenti:

1. Fiducia pubblica nell’intelligenza artificiale. Il governo deve promuovere applicazioni di intelligenza artificiale affidabili, solide e sicure.
2. Partecipazione pubblica. Il pubblico dovrebbe avere la possibilità di fornire feedback in tutte le fasi del processo decisionale.
3. Integrità scientifica e qualità delle informazioni. Le decisioni politiche dovrebbero essere basate sulla scienza. 
4. Valutazione e gestione del rischio. Le agenzie dovrebbero decidere quali rischi sono e non sono accettabili.
5. Vantaggi e costi. Le agenzie dovrebbero valutare l’impatto sociale di tutti i regolamenti proposti.
6. Flessibilità. Qualsiasi approccio scelto dovrebbe essere in grado di adattarsi ai rapidi cambiamenti e ai continui aggiornamenti delle applicazioni AI.
7. Equità e non discriminazione. Le agenzie dovrebbero assicurarsi che i sistemi di intelligenza artificiale non discriminino illegalmente.
8. Divulgazione e trasparenza. Il pubblico si fiderà dell’intelligenza artificiale solo se sa quando e come viene utilizzato il sistema.
9. Sicurezza e protezione. Le agenzie dovrebbero mantenere tutti i dati utilizzati dai sistemi di IA sicuri e protetti.
10. Coordinamento delle collaborazioni. Le agenzie dovrebbero interagire tra loro per essere coerenti e prevedibili nelle politiche relative all’IA.

Il piano recentemente proposto indica una notevole inversione di marcia rispetto alla posizione della Casa Bianca di meno di due anni fa, quando le persone che lavoravano nell’amministrazione Trump dissero che non vi era alcuna intenzione di creare una strategia nazionale per l’IA e che ridurre al minimo le interferenze del governo era il modo migliore per aiutare la tecnologia a prosperare.

Ma, poiché sempre più governi in tutto il mondo, e in particolare la Cina, investono decisamente nell’intelligenza artificiale, gli Stati Uniti sono stati costretti a seguirne l’esempio. Durante la conferenza stampa, i funzionari dell’amministrazione hanno presentato una nuova linea che prevede un maggiore ruolo del governo nello sviluppo dell’IA. 

“I principi normativi statunitensi sull’intelligenza artificiale forniscono una guida ufficiale e riducono l’incertezza per gli innovatori sulle posizioni del governo rispetto alla regolamentazione delle tecnologie di intelligenza artificiale”, ha affermato Michael Kratsios, responsabile delle politiche tecnologiche del governo americano. 

Ciò stimolerà ulteriormente l’innovazione, ha aggiunto, consentendo agli Stati Uniti di plasmare il futuro della tecnologia a livello globale e contrastare le influenze dei regimi autoritari.

Ci sono molti modi in cui ciò potrebbe svolgersi. Nell’ipotesi migliore, incoraggerebbe le agenzie ad assumere più personale con esperienza tecnica, creare standard per un’intelligenza artificiale affidabile e condurre a una regolamentazione più ponderata in generale. Nel caso peggiore, potrebbe offrire alle agenzie la scappatoia per aggirare i requisiti richiesti o creare intoppi burocratici ai regolamenti necessari per garantire un’intelligenza artificiale affidabile.

Edelman è ottimista. “Il fatto che la Casa Bianca abbia indicato la sicurezza dell’intelligenza artificiale come obiettivo è molto importante perché invia un messaggio molto chiaro alle agenzie governative”, egli conclude.

(rp)

Related Posts
Total
0
Share