Un solo pericolo si cela dietro l’utilizzo dell’intelligenza artificiale, per questa applicazione come per le altre.
di Erin Winick
Il processo di assunzione è tedioso per le persone da entrambe le parti del tavolo. Ci sono moduli online, pile di curriculum, ricerche su LinkedIn, e innumerevoli colloqui. Ciascuna di queste operazioni è ripetitiva, una questione di passare al setaccio l’Internet dei dati. È per questo motivo, che l’intelligenza artificiale (IA) potrebbe gestire il tutto agilmente.
L’IA è abile nell’automazione di operazioni che comprendono grandi quantità di dati facilmente accessibili dai quali apprendere. Così nasce Woo, una piattaforma di reclutamento che sfrutta un sistema di IA per assegnare alle persone la professione che più gli si addice. Questa piattaforma agisce da cacciatore di teste per le grandi corporazioni e da strumento semplificato per la ricerca di talenti per le posizioni aperte.
“Se pensate a un colloquio, si tratta del risultato di una carenza di informazioni da ambo le parti”,commenta su Forbes il CEO e fondatore di Woo, Liran Kotzer. “Se una macchina conosce tutto – come un Dio – del vostro passato profesionale, dei vostri progetti e della vostra cultura, questa potrà sicuramente dirvi se esiste la posizione perfetta per voi, e se voi siete proprio la persona che fa al caso di un’azienda”. La società sostiene che il suo software Helena vanta un tasso di successo del 52 percento per i candidati che vengono indirizzati verso particolari colloqui, più del doppio rispetto ai risultati riscossi da reclutatori umani.
Woo non è sola – Belong, una startup con sede a Bengaluru, India, ricorre ad una IA per estrarre dal Web informazioni sui possibili candidati, inclusi siti come GitHub e Twitter. Il sistema genera quindi una classifica dei migliori candidati in base ai requisiti di una determinata posizione.
Per quanto l’utilizzo di algoritmi per semplificare il processo delle assunzioni rappresenti chiaramente una prospettiva allettante per qualunque società intenda risparmiare tempo e denaro, l’IA può spesso risultare parziale (vedi “How to Root Out Hidden Biases in AI”). Non è colpa del software, però, ma della qualità dei dati sulla base dei quali è stata formata la sua cultura.
Gli esseri umani hanno la malaugurata abitudine di appigliarsi a fattori come il sesso o la razza. Onde evitare ricadute simili in un mondo dove l’IA media nel processo di assunzione, quindi, dovremo imparare a essere più corretti che mai.
(MO)