NeurIPS diventa grande

Una conferenza sull’intelligenza artificiale, un tempo nota per gli eccessi alcolici, si è confrontata con i problemi legati al ruolo della tecnologia nello sviluppo globale.

di Karen Hao

Mi ricordo che qualcuno due anni fa mi ha parlato di una conferenze sull’IA che si era trasformata in una gigantesca festa del mondo accademico. In una lotta per accaparrarsi il miglior talento, le aziende hanno proposto eventi di grande portata, tra cui uno con il rapper Flo Rida, ospitato da Intel. I partecipanti (per lo più uomini tra i 20 e 30 anni), eccitati dall’idea degli alti stipendi e dalla vertigine di essere desiderati, hanno bevuto alcolici gratuiti e hanno ballato tutta la notte.

Non avevo mai assistito alle conferenze di NeurIPS, abbreviazione di Neural Information Processing Systems. Sono venuta per la prima volta l’anno scorso, dopo che l’eccesso aveva raggiunto il suo picco. Esternamente, la comunità era sottoposta a un crescente controllo mentre il turbamento delle elezioni presidenziali statunitensi del 2016 aveva spinto le persone a mettere in discussione l’influenza degli algoritmi nella società. Internamente, anche le notizie di molestie sessuali, l’antisemitismo, il razzismo e la discriminazione basata sull’età spingevano i partecipanti alla conferenza a chiedersi se nadare avanti.

Quindi, quando sono arrivata nel 2018, era stato nominato un comitato per la diversità e l’inclusione e la sigla NIPS di lunga data era stata aggiornata. Tuttavia, i lavori di quest’anno sembrano diversi da quello precedente. Le feste sono più riservate, gli interventi sono più attenti agli aspetti sociali e i dibattiti sembrano più consapevoli delle sfide etiche che il campo deve affrontare.

Man mano che il ruolo dell’IA si è allargato, insieme alle preoccupazioni, la comunità, a quanto pare, ha finalmente iniziato a riflettere sul suo potere e sulle responsabilità che ne derivano. Come mi ha detto un partecipante: “Sembra che questa comunità stia crescendo”.

Questo cambiamento si è manifestato in alcuni modi concreti. Molte delle sessioni tecniche erano più incentrate sull’affrontare sfide del mondo reale invece di quelle teoriche. I temi in discussione riguardavano i metodi migliori per proteggere la privacy degli utenti, garantire l’equità e ridurre la quantità di energia che può richiedere l’esecuzione e l’addestramento di modelli algoritmici all’avanguardia.

I workshop di una giornata avevano titoli come Affrontare i cambiamenti climatici con l’apprendimento automatico e Equità nell’apprendimento automatico per garantire la salute.

Inoltre, molti dei relatori invitati hanno affrontato direttamente le sfide sociali ed etiche prevalenti nel settore, argomenti che una volta venivano respinti in quanto non essenziali alla pratica dell’apprendimento automatico. All’evento di apertura, per esempio, Celest Kidd, la psicologa cognitiva e la figura di spicco del movimento #metoo, ha tenuto un discorso di grande spessore, esortando il settore tecnologico ad assumersi la responsabilità rispetto a come le sue tecnologie modellano le credenze delle persone e trattano le tematiche relative alle molestie sessuali.

Kidd ha ricevuto una standing ovation. Nel discorso di apertura al simposio Queer in AI), il ricercatore di Stanford Ria Kalluri ha anche sfidato gli altri a riflettere su come i loro modelli di apprendimento automatico potrebbero spostare il potere nella società da chi lo ha verso quelli che non lo hanno. Il suo discorso è stato ampiamente diffuso online.

Gran parte di quanto è successo non è casuale. Attraverso il lavoro del comitato per la diversità e l’inclusione, la conferenza ha visto la partecipazione più diversificata nella sua storia. Quasi la metà degli oratori del palco principale erano donne e un numero simile per le minoranze; Il 20 per cento degli oltre 13.000 partecipanti erano a loro volta donne, rispetto al 18 per cento dell’anno scorso.

Erano presenti sette gruppi organizzati dalla comunità per sostenere i ricercatori delle minoranze, il che è un record. Questi includevano Black in AI, Queer in AI e Disability in AI, e svolgevano riunioni parallele nello stesso spazio di NeurIPS per facilitare la mescolanza di persone e idee.

Quando si coinvolgono più persone di diversa estrazione nel settore dell’intelligenza artificiale, mi ha detto Kidd, si vede con più chiarezza come l’IA stia plasmando la società, nel bene e nel male.

“Queste persone provengono da situazioni non semplici e sono più acutamente consapevoli di aspetti come i pregiudizi e l’ingiustizia e in che modo le tecnologie progettate per un determinato gruppo demografico possono effettivamente danneggiare le popolazioni già svantaggiate”, ha affermato Kidd.

Kalluri ha continuato sulla stessa linea. La politica di diversificazione della comunità, ha detto, la sta costringendo ad “affrontare le domande su come funziona il potere in questo campo”.

Nonostante i progressi, tuttavia, molti hanno sottolineato che il lavoro è appena iniziato. Una partecipazione del 20 per cento di donne non è un risultato eclatante e, come negli anni passati, non si è riusciti a garantire i visti per ricercatori internazionali, in particolare dall’Africa.

“Storicamente, questo campo ha visto il predominio di un particolare gruppo demografico della popolazione e la ricerca che ne risulta riflette i valori di quelle persone”, afferma Katherine Heller, ricercatrice della Duke University e copresidente del comitato sulla diversità . “Quello che vogliamo a lungo termine è un luogo più inclusivo per modellare la direzione futura dell’IA. C’è ancora molta strada da fare “.

(rp)

Related Posts
Total
0
Share