Skip to main content

L’istituto di ricerca AI Now nel suo rapporto annuale sostiene che non esistono serie basi scientifiche per accettare la tecnologia di riconoscimento delle emozioni e ne dovrebbe essere vietato l’utilizzo nelle decisioni che incidono sulla vita delle persone.

di Charlotte Jee

Nonostante la mancanza di prove del fatto che le macchine possano capire come ci sentiamo, si stima che il riconoscimento delle emozioni sia almeno un mercato di 20 miliardi di dollari, in rapida crescita. La tecnologia è attualmente utilizzata per valutare i candidati e le persone sospettate di crimini ed è in fase di test per ulteriori applicazioni, come nel caso delle cuffie VR per analizzare gli stati emotivi dei giocatori.

Altri problemi nascono dal fatto che ci sono anche prove che il riconoscimento delle emozioni possa amplificare le disparità di razza e genere. AI Now, un istituto di ricerca americano che studia le implicazioni sociali dell’intelligenza artificiale, sostiene che gli enti regolatori dovrebbero intervenire per limitarne fortemente l’uso e che fino ad allora le aziende di AI dovrebbero smettere di implementarlo.

In particolare, l’istituto ha citato un recente studio dell’Association for Psychological Science, che ha trascorso due anni a rivedere più di 1.000 articoli sul riconoscimento delle emozioni e ha concluso che è molto difficile usare le espressioni facciali da sole per dire con precisione come si sente qualcuno.

Nel suo rapporto, AI Now ha invitato i governi e le aziende a smettere di usare la tecnologia di riconoscimento facciale per applicazioni sensibili fino a quando i rischi non siano stati adeguatamente studiati e ha attaccato l’industria dell’intelligenza artificiale per il suo “razzismo sistemico, la misoginia e la scarsa sensibilità verso la diversità”. Ha anche richiesto che venga reso pubblico l’impatto ambientale dell’industria dell’IA.

(rp)