Skip to main content

L’agenzia federale statunitense incaricata di combattere i pregiudizi sui posti di lavoro non ha ancora indagato seriamente sui metodi di assunzione che si affidano all’intelligenza artificiale.

di Sheridan Wall e Hilke Schellmann

La capacità di ottenere un lavoro potrebbe dipendere dalle prestazioni con uno dei giochi basati sull’intelligenza artificiale che aziende come AstraZeneca e Postmates utilizzano sempre più nei sistemi di assunzione. Alcune aziende che creano questi giochi, come Pymetrics e Arctic Shores, affermano di fare grande attenzione a qualsiasi possibile pregiudizio nella fase di progettazione, ma questi giochi possono essere particolarmente difficili da navigare per le persone con disabilità in cerca di lavoro.

Nell’ultimo podcast di “MIT Technology Review” In Machines We Trust (si veda link), viene esplorato come i sistemi di assunzione basati sull’intelligenza artificiale e altri strumenti possono escludere le persone con disabilità. Malgrado molte persone negli Stati Uniti si siano rivolte alla commissione federale responsabile della discriminazione sul lavoro per regolamentare queste tecnologie, l’agenzia deve ancora agire.

Per dare un’occhiata più da vicino, abbiamo chiesto a Henry Claypool, un esperto di politiche sulla disabilità, di provare  uno dei giochi di Pymetrics,  che in genere misurano nove abilità, tra cui attenzione, generosità e tolleranza al rischio, che secondo Frida Polli, il CEO e cofondatore dell’azienda, sono legate al successo lavorativo.

Quando lavora con un’azienda che cerca di assumere nuove persone, Pymetrics chiede prima all’azienda di identificare le persone che stanno già avendo successo nel ruolo lavorativo di cui l’azienda va alla ricerca e chiede loro di giocare. Quindi, per identificare le competenze più specifiche per i dipendenti di successo, confronta i loro dati di gioco con i dati di un campione casuale di giocatori.

Quando ha accettato di giocare, Claypool ha dovuto scegliere tra una versione modificata, progettata per chi presenta daltonismo, ADHD o dislessia, e una versione non modificata. Questa domanda pone un problema per i candidati con disabilità, spiega. “Il timore è che se clicco su uno di questi, rivelerò qualcosa che mi dequalifica per il lavoro, e se non clicco su, diciamo, dislessia o qualsiasi altra cosa che mi rende difficile leggere le lettere ed elaborare queste informazioni rapidamente, allora sarò in svantaggio”, afferma Claypool. “In ogni caso fallirò”.

Polli afferma che Pymetrics non dice ai datori di lavoro che versione è stata scelta durante il processo di assunzione, il che dovrebbe impedire ai datori di lavoro di discriminare le persone con determinate disabilità. Ha aggiunto che in risposta alla nostra segnalazione, l’azienda renderà queste informazioni più chiare in modo che i candidati sappiano che la loro scelta della versione di gioco è privata e riservata.

L’Americans with Disabilities Act richiede ai datori di lavoro di fornire sistemazioni ragionevoli alle persone con disabilità. E se le valutazioni delle assunzioni di un’azienda escludono le persone con disabilità, allora deve dimostrare che tali valutazioni sono necessarie per il lavoro. Per i datori di lavoro, l’utilizzo di giochi come quelli prodotti da Arctic Shores può sembrare più neutrale. 

A differenza dei tradizionali test psicometrici, l’algoritmo di Arctic Shores valuta i candidati sulla base delle loro scelte durante il gioco. Tuttavia, i candidati spesso non sanno cosa sta misurando il gioco o cosa aspettarsi mentre giocano. Per i richiedenti con disabilità, questo rende difficile sapere se devono chiedere una versione adeguata alle loro esigenze.

Safe Hammad, CTO e cofondatore di Arctic Shores, afferma che il suo team è concentrato sul rendere le sue valutazioni accessibili a quante più persone possibile. Le persone con daltonismo e disabilità uditive possono utilizzare il software dell’azienda senza particolari accorgimenti, afferma, ma i datori di lavoro non dovrebbero utilizzare tali richieste per escludere i candidati.

Tuttavia, l’uso di questi strumenti a volte può escludere le persone in modi che potrebbero non essere ovvi per un potenziale datore di lavoro. Patti Sanchez è una esperta di assunzioni presso il MacDonald Training Center in Florida che lavora con persone in cerca di lavoro non udenti o con problemi di udito. Circa due anni fa, uno dei suoi clienti ha fatto domanda per un lavoro presso Amazon che richiedeva un colloquio video tramite HireVue.

Sanchez, anche lei sorda, ha tentato di chiamare e richiedere assistenza all’azienda, ma inutilmente. Allora, ha portato il suo cliente e un interprete della lingua dei segni al sito di assunzione e ha convinto i rappresentanti a intervistarlo di persona. Amazon ha assunto il suo cliente, ma Sanchez afferma che problemi come questi sono comuni durante la navigazione nei sistemi automatizzati. (Amazon non ha risposto a una richiesta di commento).

Rendere accessibile la tecnologia di assunzione significa garantire sia che un candidato possa utilizzare la tecnologia sia che le competenze misurate non escludano ingiustamente i candidati con disabilità, afferma Alexandra Givens, CEO del Center for Democracy and Technology, un’organizzazione focalizzata sui diritti civili nell’era digitale.

Gli strumenti di assunzione basati sull’intelligenza artificiale spesso non includono le persone con disabilità quando generano i loro dati di formazione, afferma. Queste persone sono state a lungo escluse dalla forza lavoro, quindi gli algoritmi modellati sulle precedenti assunzioni di un’azienda non rifletteranno il loro potenziale.

Anche se i modelli potrebbero spiegare i valori anomali, il modo in cui una disabilità si presenta varia ampiamente da persona a persona. Due persone con autismo, per esempio, potrebbero avere punti di forza e punti deboli molto diversi. “Man mano che questi sistemi vengono automatizzati e i datori di lavoro spingono verso ciò che è più veloce ed efficiente, si sta perdendo la possibilità per le persone di mostrare effettivamente le proprie qualifiche e la propria capacità di svolgere un determinato lavoro”, afferma Givens. “E questa è una perdita enorme”.

Un approccio a mani libere

Le autorità di regolamentazione del governo hanno difficoltà a monitorare gli strumenti di assunzione dell’AI. Nel dicembre del 2020, 11 senatori hanno scritto una lettera alla Equal Employement Opportunity Commission degli Stati Uniti esprimendo preoccupazioni sull’uso delle tecnologie di assunzione dopo la pandemia di covid-19. La lettera chiedeva all’autorità dell’agenzia di indagare se questi strumenti discriminassero in particolare le persone con disabilità.

L’EEOC ha risposto con una lettera a gennaio che è arrivata alla redazione di “MIT Technology Review”. Nella lettera, la commissione ha indicato che non può indagare sugli strumenti di assunzione dell’AI senza una specifica denuncia di discriminazione. La lettera ha anche delineato le preoccupazioni per la riluttanza del settore a condividere i dati e ha affermato che la variazione tra il software delle diverse aziende impedirebbe all’EEOC di istituire politiche di ampia portata.

“Sono rimasto sorpreso e deluso quando ho visto la risposta”, afferma Roland Behm, avvocato e difensore delle persone con disturbi della sfera psichica. “L’intero tenore di quella lettera sembrava presentare l’EEOC più come uno spettatore che un’agenzia di controllo”. L’indagine viene avviata una volta che un individuo presenta un reclamo per discriminazione. Con la tecnologia automatizzata di assunzione, tuttavia, la maggior parte dei candidati non sa perché è stata rifiutata per il lavoro. “Credo che un motivo per cui non abbiamo visto più azioni esecutive o controversie private in questo settore sia dovuto al fatto che i candidati non sanno di essere valutati da un computer”, afferma Keith Sonderling, un commissario dell’EEOC.

Aaron Rieke, amministratore delegato di Upturn, un’organizzazione no-profit che si occupa di diritti civili e tecnologia, ha espresso delusione per la risposta dell’EEOC: “Spero che negli anni a venire l’EEOC possa essere un po’ più aggressiva e creativa nel modo di utilizzare la sua autorità”. Pauline Kim, professore di diritto alla Washington University di St Louis, la cui ricerca si concentra sugli strumenti di assunzione algoritmica, afferma che l’EEOC potrebbe essere più proattiva nella raccolta di ricerche e nell’aggiornamento delle linee guida per aiutare i datori di lavoro e le aziende di intelligenza artificiale a rispettare la legge.

Behm aggiunge che l’EEOC potrebbe perseguire altre vie di applicazione, inclusa l’accusa di un commissario che consenta di avviare un’indagine su sospetta discriminazione invece di richiedere un reclamo individuale. Suggerisce inoltre che l’EEOC si consulti con gruppi di advocacy per sviluppare linee guida per le aziende di intelligenza artificiale che sperano di rappresentare meglio le persone con disabilità nei loro modelli algoritmici.

È improbabile che le aziende e i datori di lavoro che si affidano all’intelligenza artificiale stiano escludendo di proposito le persone con disabilità, afferma Behm. Ma “non hanno speso il tempo e gli sforzi necessari per comprendere i sistemi che stanno decidendo le sorti di migliaia di persone”.

Immagine di: Ms Tech / Getty

(rp)