È caccia aperta ai pregiudizi delle Intelligenze Artificiali

Un nuovo mercato emergente si sta specializzando nell’individuare algoritmi ingiusti e rendere più responsabili i sistemi di intelligenza artificiale

L’utilizzo di sistemi di intelligenza artificiale si fa sempre più frequente, ma ci possono volere mesi o addirittura anni prima di scoprire se sono formulati in base a dei pregiudizi.

La posta in gioco è spesso altissima: i sistemi di intelligenza artificiale ingiusti possono portare all’arresto di persone innocenti e negare alloggio, lavoro e servizi di base senza alcun motivo.

Un gruppo di esperti di intelligenza artificiale e apprendimento automatico ha recentemente lanciato un nuovo genere di competizione, i ‘Bias Bounty‘ con tanto di taglia offerta contro i pregiudizi, nella speranza che simili iniziative possano accelererà il processo di scoperta di questo tipo di errore di programmazione.

Il concorso, che trae ispirazione dalle ricompense offerte per identificare i bug nel campo della sicurezza informatica, invita i partecipanti a creare strumenti per identificare e mitigare i pregiudizi algoritmici nei modelli di intelligenza artificiale.

È organizzato da un gruppo di volontari che lavorano in aziende come Twitter, la società di software Splunk e la startup di rilevamento dei deepfake Reality Defender. I volontari si sono soprannominati i “Bias Buccaneers“.

La prima competizione di ‘Bounty Bias’ si concentrerà sul rilevamento di immagini distorte. Si tratta di un problema comune: in passato, ad esempio, i sistemi di rilevamento delle immagini difettosi hanno erroneamente scambiato individui di colore per gorilla.

I concorrenti dovranno costruire un modello di apprendimento automatico che etichetti ogni immagine con il tono della pelle, il sesso percepito e il gruppo di età, per misurare e individuare i pregiudizi nei set di dati con più facilità.

Avranno accesso a un set di dati di circa 15.000 immagini di volti umani generati sinteticamente. I partecipanti vengono classificati in base alla precisione con cui le immagini dei tag del modello e al tempo impiegato dal codice per l’esecuzione, tra le altre metriche. Il concorso scade il 30 novembre.

Microsoft e la startup Robust Intelligence hanno promesso un premio in denaro di $ 6.000 per il vincitore, $ 4.000 per il secondo classificato e $ 2.000 per chi arriva terzo. Amazon ha contribuito investito $ 5.000 sulla potenza di calcolo della prima serie di partecipanti.

La competizione è un esempio delle attività di un settore in erba che sta emergendo nell’ambito delle AI: l’auditing per bias algoritmici.

Twitter ha lanciato la prima taglia sulla distorsione dell’AI lo scorso anno e la Stanford University ha appena concluso la sua prima sfida di audit sulle AI. Nel frattempo, l’organizzazione no profit Mozilla sta creando strumenti per gli auditor delle AI.

È probabile che questi controlli diventino sempre più comuni. Sono stati acclamati dalle autorità di regolamentazione e dagli esperti di etica dell’AI come un buon modo per rendere più responsabili i sistemi di intelligenza artificiale e si ritiene che, in alcune giurisdizioni, possano divenire un requisito legale.

Ad esempio, la nuova legge della UE sulla moderazione dei contenuti, la legge sui servizi digitali, include requisiti di audit annuali per i dati e gli algoritmi utilizzati dalle grandi piattaforme tecnologiche. Sempre in Europa, la futura legge sulle AI potrebbe consentire alle autorità di controllare i sistemi di intelligenza artificiale.

Anche il National Institute of Standards and Technology degli Stati Uniti raccomanda l’implementazione di audit delle AI come gold standard. L’idea è che questi audit possano svolgere il compito delle ispezioni solitamente condotte in altri settori ad alto rischio, come gli impianti chimici, spiega Alex Engler, che studia la governance dell’AI presso il think tank Brookings Institution.

Il problema è che non ci sono abbastanza appaltatori indipendenti per soddisfare la domanda in arrivo di audit algoritmici e le aziende sarebbero comunque riluttanti a concedere loro l’accesso ai propri sistemi, sostengono la ricercatrice Deborah Raji, specializzata in responsabilità dell’IA, e i suoi coautori in uno studio pubblicato lo scorso giugno.

Proprio questo genere di cultura viene coltivata dalle recenti competizioni. La speranza nella comunità dell’AI è che possano portare più ingegneri, ricercatori ed esperti a sviluppare le capacità e l’esperienza necessarie a svolgere gli audit richiesti.

Gran parte del controllo limitato nel mondo dell’AI finora viene dagli accademici o dalle stesse società tecnologiche. Lo scopo di concorsi come questo è creare un nuovo settore di esperti specializzati nell’auditing AI.

“Stiamo cercando di creare un terzo spazio per le persone interessate a questo tipo di lavoro, che vogliono iniziare o che sono esperti che non lavorano in aziende tecnologiche“, afferma Rumman Chowdhury, direttore del team di Twitter sull’etica, trasparenza e responsabilità nell’apprendimento automatico, il leader dei Bias Buccaneers. Queste persone potrebbero includere hacker e data scientist che vogliono acquisire nuove competenze, spiega.

La squadra responsabile del lancio della competizione dei Bias Buccaneers spera che sia solo la prima di tante.

Concorsi come questo non solo creano incentivi per la comunità dell’apprendimento automatico ad eseguire audit, ma promuovono anche una comprensione condivisa di “come controllare al meglio e in quali tipi di audit dovremmo investire“, afferma Sara Hooker, che guida Cohere for AI, un laboratorio di ricerca sull’intelligenza artificiale senza scopo di lucro.

“Si tratta di un’idea fantastica e assolutamente necessaria”, afferma Abhishek Gupta, il fondatore del Montreal AI Ethics Institute, che è stato un giudice nella sfida di audit AI di Stanford. “Più occhi punti su di un sistema, più probabilità ci sono di identificarne i difetti“, conclude Gupta.

Related Posts
Total
0
Share