STEPHANIE ARNETT/MITTR | GETTY

La Cina ha un nuovo piano per giudicare la sicurezza dell’IA generativa – ed è ricco di dettagli

Una nuova proposta definisce i modi molto specifici in cui le aziende dovrebbero valutare la sicurezza dell’IA e applicare la censura nei modelli di IA.

Da quando, a luglio, il governo cinese ha approvato una legge sull’IA generativa, mi sono chiesto come la macchina della censura cinese si sarebbe adattata all’era dell’IA. I contenuti prodotti dai modelli di IA generativa sono più imprevedibili dei social media tradizionali. Inoltre, la legge lasciava molte cose poco chiare; ad esempio, richiedeva alle aziende “che sono in grado di mobilitare i social” di presentare “valutazioni di sicurezza” ai regolatori governativi, anche se non era chiaro come avrebbe funzionato la valutazione.

La scorsa settimana abbiamo avuto qualche chiarimento su come tutto questo potrebbe apparire nella pratica.

L’11 ottobre, un’organizzazione governativa cinese chiamata National Information Security Standardization Technical Committee ha pubblicato una bozza di documento che propone regole dettagliate per determinare se un modello di IA generativa è problematico. Spesso abbreviato in TC260, il comitato consulta i rappresentanti delle aziende, gli accademici e le autorità di regolamentazione per definire le regole del settore tecnologico su questioni che vanno dalla cybersicurezza alla privacy, all’infrastruttura informatica.

A differenza di molti manifesti su come regolamentare l’IA, questo documento sugli standard è molto dettagliato: stabilisce criteri chiari su quando una fonte di dati dovrebbe essere bandita dall’addestramento dell’IA generativa e fornisce metriche sul numero esatto di parole chiave e domande campione che dovrebbero essere preparate per testare un modello.

Matt Sheehan, ricercatore di tecnologia globale presso il Carnegie Endowment for International Peace, che mi ha segnalato il documento, ha detto che quando l’ha letto per la prima volta “gli è sembrato il documento più concreto e specifico relativo alla normativa sull’IA generativa”. E ha aggiunto: “Questo documento fornisce essenzialmente alle aziende delle istruzioni o un manuale per conformarsi alle normative sull’IA generativa, che hanno requisiti molto vaghi.

Inoltre, chiarisce cosa le aziende dovrebbero considerare un “rischio per la sicurezza” nei modelli di IA, dal momento che Pechino sta cercando di eliminare sia le preoccupazioni universali, come i pregiudizi degli algoritmi, sia i contenuti che sono sensibili solo nel contesto cinese. “Si tratta di un adattamento a un’infrastruttura di censura già molto sofisticata”, spiega l’autore.

Come si presentano queste regole specifiche?

Addestramento: tutti i foundation model di IA sono attualmente addestrati su molti corpora (database di testo e immagini), alcuni dei quali presentano pregiudizi e contenuti non moderati. Gli standard TC260 richiedono alle aziende non solo di diversificare i corpora (mescolando lingue e formati), ma anche di valutare la qualità di tutti i materiali di addestramento.

Come? Le aziende devono campionare casualmente 4.000 porzioni di dati da una fonte. Se oltre il 5% dei dati è considerato “informazione illegale e negativa”, il corpus deve essere inserito nella lista nera per l’addestramento futuro.

La percentuale può sembrare bassa all’inizio, ma non sappiamo come si confronta con i dati del mondo reale. “Per me è piuttosto interessante. Il 96% di Wikipedia va bene?”. Si chiede Sheehan. Ma il test sarebbe probabilmente facile da superare se il set di dati di addestramento fosse costituito da qualcosa come gli archivi dei giornali statali cinesi, che sono già stati pesantemente censurati, sottolinea Sheehan, e su cui le aziende potrebbero fare affidamento per addestrare i loro modelli.

Moderazione: le aziende di IA dovrebbero assumere “moderatori che migliorino prontamente la qualità dei contenuti generati in base alle politiche nazionali e ai reclami di terzi”. Il documento aggiunge che “le dimensioni del team di moderatori dovrebbero corrispondere alle dimensioni del servizio”.

Dato che i moderatori di contenuti sono già diventati la parte più consistente della forza lavoro di aziende come ByteDance, sembra probabile che la macchina della moderazione e della censura guidata dall’uomo non potrà che crescere nell’era dell’intelligenza artificiale.

Contenuti vietati: innanzitutto, le aziende devono selezionare centinaia di parole chiave per segnalare i contenuti non sicuri o vietati. Gli standard definiscono otto categorie di contenuti politici che violano “i valori fondamentali del socialismo”, ognuna delle quali deve essere costituita da 200 parole chiave scelte dalle aziende; poi ci sono nove categorie di contenuti “discriminatori”, come la discriminazione basata sul credo religioso, la nazionalità, il genere e l’età. Per ognuna di queste categorie sono necessarie 100 parole chiave.

Poi le aziende devono proporre più di 2.000 richieste (almeno 20 per ogni categoria) che possano suscitare risposte test da parte dei modelli. Infine, i modelli devono eseguire dei test per garantire che meno del 10% delle risposte generate infranga le regole.

Censura più sofisticata e sottile: sebbene gli standard proposti riguardino in larga misura la determinazione di come effettuare la censura, la bozza chiede in modo interessante che i modelli di IA non rendano troppo evidente la loro moderazione o censura.

Ad esempio, alcuni modelli di IA cinesi attuali possono rifiutarsi di rispondere a qualsiasi richiesta che contenga il testo “Xi Jinping”. Questa proposta chiede alle aziende di trovare richieste relative ad argomenti come il sistema politico cinese o gli eroi rivoluzionari a cui sia possibile rispondere, e i modelli di IA possono rifiutarsi di rispondere solo a meno del 5% di esse. “Si tratta di dire sia ‘Il tuo modello non può dire cose cattive’ e ‘Non possiamo nemmeno rendere troppo ovvio per il pubblico il fattoche stiamo censurando tutto'”, spiega Sheehan.

È affascinante, vero?

Ma è importante chiarire cosa sia e cosa non sia questo documento. Anche se il TC260 riceve la supervisione delle agenzie governative cinesi, questi standard non sono leggi. Non sono previste sanzioni se le aziende non li rispettano.

Ma proposte come questa spesso confluiscono in leggi future o le affiancano. E questa proposta aiuta a precisare i dettagli omessi nelle normative cinesi sull’IA. “Credo che le aziende seguiranno queste indicazioni e le autorità di regolamentazione le considereranno vincolanti”, afferma Sheehan.

È importante anche pensare a chi sta dando forma agli standard TC260. A differenza della maggior parte delle leggi cinesi, queste norme ricevono esplicitamente il contributo di esperti ingaggiati dalle aziende tecnologiche, che saranno resi noti dopo la finalizzazione degli standard. Queste persone conoscono meglio la materia, ma hanno anche un interesse finanziario. Aziende come Huawei, Alibaba e Tencent hanno pesantemente influito sugli standard del TC260.

Ciò significa che questo documento può essere visto anche come un riflesso di come le aziende tecnologiche cinesi vogliono che i loro prodotti siano regolamentati. Francamente, non è saggio sperare che i regolamenti non arrivino mai, e queste aziende hanno un incentivo a influenzare il modo in cui le regole vengono stabilite.

Mentre altri Paesi si adoperano per regolamentare l’IA, credo che gli standard di sicurezza dell’IA cinese avranno un impatto immenso sull’industria globale dell’IA. Nella migliore delle ipotesi, propongono dettagli tecnici per la moderazione generale dei contenuti; nella peggiore, segnalano l’inizio di nuovi regimi di censura.

Ci sono molte altre regole nel documento che meritano di essere approfondite. Potrebbero ancora cambiare – feedback sugli standard del TC260 saranno ricevuti fino al 25 ottobre – ma quando uscirà la versione finale, mi piacerebbe sapere cosa ne pensano i colleghi, compresi gli esperti di sicurezza dell’IA in Occidente.

Related Posts
Total
0
Share