Le misure esistenti per mitigare i rischi dell’IA non sono sufficienti a proteggerci. Ecco cosa dobbiamo fare anche noi.
Negli ultimi due anni, le autorità di regolamentazione sono state colte di sorpresa più volte, mentre le aziende tecnologiche facevano a gara per lanciare modelli di IA sempre più avanzati. È solo questione di tempo prima che i laboratori rilascino un’altra serie di modelli che porranno nuove sfide normative. Probabilmente mancano poche settimane, ad esempio, al rilascio da parte di OpenAI di ChatGPT-5, che promette di spingere le capacità dell’IA più in là che mai. Allo stato attuale, sembra che ci sia poco da fare per ritardare o impedire il rilascio di un modello che pone rischi eccessivi.
Testare i modelli di IA prima che vengano rilasciati è un approccio comune per mitigare alcuni rischi, e può aiutare le autorità di regolamentazione a soppesare i costi e i benefici – e potenzialmente a bloccare il rilascio dei modelli se sono ritenuti troppo pericolosi. Ma l’accuratezza e la completezza di questi test lasciano molto a desiderare. I modelli di intelligenza artificiale possono “imbalsamare” la valutazione, nascondendo alcune delle loro capacità per evitare di sollevare problemi di sicurezza. Le valutazioni possono anche non riuscire a scoprire in modo affidabile l’intera serie di rischi posti da un singolo modello. Le valutazioni soffrono anche di una portata limitata: è improbabile che i test attuali riescano a scoprire tutti i rischi che meritano ulteriori indagini. C’è anche il problema di chi conduce le valutazioni e di come i suoi pregiudizi possano influenzare gli sforzi di verifica. Per questi motivi, le valutazioni devono essere utilizzate insieme ad altri strumenti di governance.
Uno di questi strumenti potrebbe essere rappresentato dai meccanismi di segnalazione interni ai laboratori. Idealmente, i dipendenti dovrebbero sentirsi autorizzati a condividere regolarmente e pienamente le loro preoccupazioni in materia di sicurezza dell’IA con i colleghi, e dovrebbero ritenere che questi ultimi possano poi contare su di loro per agire in base a tali preoccupazioni. Tuttavia, è sempre più evidente che, lungi dall’essere promossa, la critica aperta sta diventando più rara nei laboratori di IA. Solo tre mesi fa, 13 ex e attuali lavoratori di OpenAI e di altri laboratori hanno scritto una lettera aperta in cui esprimevano il timore di ritorsioni nel caso in cui avessero tentato di rivelare comportamenti aziendali discutibili, al di sotto della violazione della legge.
Come suonare l’allarme
In teoria, le tutele esterne per gli informatori potrebbero svolgere un ruolo prezioso nell’individuazione dei rischi legati all’IA. Potrebbero proteggere i dipendenti licenziati per aver rivelato azioni aziendali e potrebbero contribuire a compensare meccanismi interni di segnalazione inadeguati. In quasi tutti gli Stati esiste un’eccezione di ordine pubblico al licenziamento a tempo indeterminato: in altre parole, i dipendenti licenziati possono rivalersi sui loro datori di lavoro se hanno subito ritorsioni per aver denunciato pratiche aziendali non sicure o illegali. Tuttavia, nella pratica questa eccezione offre ai dipendenti poche garanzie. I giudici tendono a favorire i datori di lavoro nei casi di whistleblower. La probabilità che i laboratori di IA sopravvivano a tali cause sembra particolarmente alta, dato che la società non ha ancora raggiunto alcun tipo di consenso su ciò che si qualifica come sviluppo e impiego di IA non sicuri.
Queste e altre carenze spiegano perché i 13 lavoratori dell’IA già citati, tra cui l’ex dipendente di OpenAI William Saunders, hanno chiesto un nuovo “diritto all’avvertimento”. Le aziende dovrebbero offrire ai dipendenti una procedura anonima per comunicare le preoccupazioni relative ai rischi al consiglio di amministrazione del laboratorio, a un’autorità di regolamentazione e a un terzo organismo indipendente composto da esperti in materia. I dettagli di questo processo sono ancora da definire, ma presumibilmente si tratterebbe di un meccanismo formale e burocratico. Il consiglio di amministrazione, l’ente regolatore e la terza parte dovrebbero tutti registrare la divulgazione. È probabile che ogni organismo avvii una sorta di indagine. Anche le riunioni e le udienze successive sembrano una parte necessaria del processo. Tuttavia, se Saunders deve essere preso in parola, ciò che i lavoratori dell’AI vogliono davvero è qualcosa di diverso.
Quando Saunders è intervenuto nel Big Technology Podcast per delineare il suo processo ideale per la condivisione dei problemi di sicurezza, non si è concentrato sulle vie formali per la segnalazione dei rischi accertati. Ha invece indicato il desiderio di una fase intermedia e informale. Vuole avere la possibilità di ricevere un feedback neutrale ed esperto sul fatto che un problema di sicurezza sia abbastanza sostanziale da passare attraverso un processo “ad alta posta in gioco”, come un sistema di diritto all’allerta. Gli attuali regolatori governativi, come dice Saunders, non potrebbero svolgere questo ruolo.
Innanzitutto, è probabile che non abbiano le competenze necessarie per aiutare un lavoratore AI a riflettere sui problemi di sicurezza. Inoltre, pochi lavoratori alzeranno il telefono se sanno che dall’altra parte c’è un funzionario governativo: questo tipo di chiamata potrebbe essere “molto intimidatoria”, come ha detto lo stesso Saunders nel podcast. Al contrario, egli immagina di poter chiamare un esperto per discutere le sue preoccupazioni. In uno scenario ideale, gli verrebbe detto che il rischio in questione non sembra così grave o probabile che si concretizzi, lasciandolo libero di tornare a fare quello che stava facendo con maggiore tranquillità.
Abbassare la posta in gioco
Ciò che Saunders chiede in questo podcast non è il diritto di avvertire, perché questo suggerisce che il dipendente è già convinto che ci sia un’attività non sicura o illegale in corso. Quello che chiede in realtà è un controllo di pancia, un’opportunità per verificare se il sospetto di un comportamento non sicuro o illegale sembra giustificato. La posta in gioco sarebbe molto più bassa, quindi la risposta normativa potrebbe essere più leggera. La terza parte responsabile della valutazione di questi controlli di pancia potrebbe essere molto più informale. Ad esempio, dottorandi di IA, lavoratori dell’industria dell’IA in pensione e altre persone con esperienza nell’IA potrebbero offrirsi come volontari per una hotline sulla sicurezza dell’IA. Potrebbero essere incaricati di discutere rapidamente e con competenza le questioni di sicurezza con i dipendenti attraverso una conversazione telefonica riservata e anonima. I volontari della hotline avrebbero familiarità con le principali pratiche di sicurezza e una conoscenza approfondita delle opzioni disponibili per i dipendenti, come ad esempio i meccanismi di diritto all’allerta.
Come ha indicato Saunders, è probabile che pochi dipendenti vogliano passare da 0 a 100 con le loro preoccupazioni sulla sicurezza, direttamente dai colleghi al consiglio di amministrazione o addirittura a un ente governativo. È molto più probabile che sollevino i loro problemi se è disponibile un passaggio intermedio e informale.
Studiare esempi altrove
I dettagli sul funzionamento preciso di una hotline per la sicurezza dell’IA meritano un dibattito più approfondito tra i membri della comunità dell’IA, le autorità di regolamentazione e la società civile. Per realizzare appieno il suo potenziale, ad esempio, la hotline potrebbe aver bisogno di un modo per inoltrare le segnalazioni più urgenti e verificate alle autorità competenti. Come garantire la riservatezza delle conversazioni della hotline è un’altra questione che richiede un’indagine approfondita. Come reclutare e mantenere i volontari è un’altra questione chiave. Data l’ampia preoccupazione dei principali esperti per il rischio di IA, alcuni potrebbero essere disposti a partecipare semplicemente per il desiderio di dare una mano. Se il numero di persone che si fanno avanti è troppo basso, potrebbero essere necessari altri incentivi. Il primo passo essenziale, tuttavia, è riconoscere questo tassello mancante nel puzzle della regolamentazione della sicurezza dell’IA. Il passo successivo è la ricerca di modelli da emulare per costruire la prima hotline per l’IA.
Un punto di partenza è rappresentato dai difensori civici. Altri settori hanno riconosciuto il valore di identificare queste persone neutrali e indipendenti come risorse per valutare la gravità delle preoccupazioni dei dipendenti. I difensori civici (o ombudsman) esistono nel mondo accademico, nelle organizzazioni non profit e nel settore privato. L’attributo distintivo di queste persone e dei loro collaboratori è la neutralità: non hanno alcun incentivo a favorire una parte o l’altra, e quindi è più probabile che godano della fiducia di tutti. Uno sguardo all’uso dei difensori civici nel governo federale dimostra che, quando sono disponibili, le questioni possono essere sollevate e risolte prima di quanto avverrebbe altrimenti.
Questo concetto è relativamente nuovo. Il Dipartimento del Commercio degli Stati Uniti ha istituito il primo difensore civico federale nel 1971. L’ufficio aveva il compito di aiutare i cittadini a risolvere le controversie con l’agenzia e di indagare sulle sue azioni. Altre agenzie, tra cui la Social Security Administration e l’Internal Revenue Service, hanno presto seguito l’esempio. Una revisione retrospettiva di questi primi sforzi ha concluso che i difensori civici efficaci possono migliorare significativamente le relazioni tra cittadini e amministrazione. Nel complesso, i difensori civici sono stati associati a un aumento della conformità volontaria ai regolamenti e della cooperazione con il governo.
Un difensore civico dell’IA o una hotline per la sicurezza avrebbero sicuramente compiti e personale diversi da quelli di un difensore civico di un’agenzia federale. Tuttavia, il concetto generale è degno di essere studiato da coloro che sostengono le tutele nell’industria dell’IA.
Il diritto di avvertire può svolgere un ruolo nel far conoscere i problemi di sicurezza dell’IA, ma dobbiamo anche istituire passi più intermedi e informali. Una linea telefonica diretta per la sicurezza delle IA è un frutto a basso impatto normativo. Un progetto pilota composto da volontari potrebbe essere organizzato in tempi relativamente brevi e fornire uno sbocco immediato a chi, come Saunders, vuole solo una cassa di risonanza.
Kevin Frazier è professore assistente presso il St. Thomas University College of Law e ricercatore senior presso il Constitutional Studies Program dell’Università del Texas ad Austin.