Una società mette alla prova i pregiudizi delle IA interrogandole

La matematica Cathy O’Neil offre alle imprese un’occasione per testare i propri algoritmi e valutarne l’equità.

di Erin Winick

Apriamo la scatola nera: Con il progredire dei sistemi di intelligenza artificiale , i percorsi logici che seguono possono risultare difficili o addirittura impossibili da comprendere, al punto da creare una cosiddetta “scatola nera”. Man mano che questi algoritmi vengono posti a controllo di aspetti sempre più importanti delle nostre vite, come la probabilità di trovare un impiego o ottenere un prestito, è fondamentale comprendere i loro pregiudizi e le loro decisioni.

La soluzione: O’Nei, autrice del libro Weapons of Math Destruction, ha creato O’Neil Risk Consulting ed Algorithmic Auditing per effettuare revisioni degli algoritmi. La soluzione consiste nell’analizzare qualunque aspetto legato al loro funzionamento, dagli individui che hanno programmato il software sulla base dei dati di addestramento utilizzati, fino ai risultati ottenuti, al fine di segnalare qualunque possibile forma di pregiudizio maturata all’interno del sistema.

Perché le imprese dovrebbero sottoporre i propri sistemi a questa revisione? Le società non si stanno certo accodando per usufruire di questo servizio, che al momento annovera sei clienti. Eppure dovrebbero: non solo per il bene della società, ma per perseguire una valida strategia di marketing. Un certificato di equità dell’algoritmo dimostrerebbe ai clienti che i servizi offerti tramite la propria intelligenza artificiale sono efficaci, sicuri ed equi.

Related Posts
Total
0
Share