La debacle degli esami nel Regno Unito ci ricorda i limiti degli algoritmi

Il problema è iniziato quando il Dipartimento dell’istruzione britannico ha perso di vista l’obiettivo finale del sistema di valutazione e ha spinto per la standardizzazione a ogni costo.

di Karen Hao

Quando il Regno Unito ha deciso per la prima volta di trovare un’alternativa al diploma di maturità, la premessa sembrava perfettamente ragionevole. Il covid-19 aveva fatto venir meno qualsiasi opportunità per gli studenti di sostenere gli esami di persona, ma il governo voleva ancora trovare un modo equilibrato per valutarli in vista dell’università.

La principale delle sue preoccupazioni era la questione di equità. Gli insegnanti avevano già un’idea del voto agli esami dei loro studenti, ma alcuni studi precedenti avevano dimostrato che queste previsioni potevano essere influenzate da età, sesso ed etnia. Dopo una serie di incontri di esperti, l’Ofqual, The Office of Qualifications and Examinations Regulation, si è rivolto a un algoritmo. Da lì, le cose hanno preso una piega imprevedibile.

Quasi il 40 per cento degli studenti ha finito per ricevere punteggi degli esami inferiori rispetto alle previsioni dei loro insegnanti, mettendo a rischio il loro futuro universitario. L’analisi dell’algoritmo ha anche rivelato che aveva danneggiato in modo sproporzionato gli studenti della classe operaia e delle comunità svantaggiate, gonfiando invece i voti degli studenti delle scuole private.

Il 16 agosto, centinaia di persone hanno cantato “Fanculo l’algoritmo” di fronte all’edificio del Dipartimento dell’Istruzione del Regno Unito a Londra per protestare contro i risultati. Il giorno successivo, l’Ofqual aveva revocato la sua decisione. Agli studenti verranno assegnati i voti previsti dal loro insegnante o dall’algoritmo, a seconda di quale dei due sia il più alto.

La debacle sembra un esempio da manuale di discriminazione algoritmica. Chi aveva analizzato il sistema in precedenza, aveva già sottolineato quanto fosse prevedibile che le cose sarebbero andate male; l’algoritmo, infatti, è stato addestrato, in parte, non solo sul rendimento scolastico passato di ogni studente, ma anche sui risultati passati. In questo modo inevitabilmente si sarebbero penalizzati i valori anomali a favore di quelli medi nel lungo periodo.

Ma la radice del problema è più profonda dei dati errati o di una progettazione algoritmica scadente. Gli errori di fondo sono stati commessi prima ancora che Ofqual scegliesse di adottare un algoritmo. In fondo, l’ente regolatore ha perso di vista l’obiettivo finale: aiutare gli studenti a passare all’università in una fase caratterizzata dalle difficoltà legate alla diffusione del contagio. In questa situazione senza precedenti, il sistema degli esami avrebbe dovuto essere completamente ripensato.

“Siamo di fronte a uno spettacolare fallimento della capacità di immaginazione”, afferma Hye Jung Han, ricercatore dello Human Rights Watch negli Stati Uniti, che si concentra sui diritti dei bambini e sulla tecnologia. A livello di base, Ofqual ha affrontato due potenziali obiettivi dopo l’annullamento degli esami. Il primo era standardizzare i voti evitando l’assegnazione di punteggi più alti di quelli che gli studenti meritano; il secondo era valutare gli studenti nel modo più accurato possibile per l’ammissione all’università.

A seguito di direttiva del Segretario di Stato, è stata data la priorità al primo obiettivo. “Penso che il problema sia partito da questo momento”, dice Hannah Fry, docente dell’University College di Londra e autrice di Hello World: How to Be Human in the Age of the Machine. “L’obiettivo era sbagliato, quindi qualunque fosse stato l’algoritmo, non avrebbe mai raggiunto l’obiettivo”.

La necessità di standardizzazione ha prevalso su tutto il resto. L’ente regolatore ha quindi scelto logicamente uno dei migliori strumenti di standardizzazione, un modello statistico, per prevedere una distribuzione dei punteggi degli esami di ammissione per il 2020 che fossero coerenti alla distribuzione del 2019.

Se Ofqual avesse scelto l’altro obiettivo, le cose sarebbero andate diversamente. Probabilmente avrebbe scartato l’algoritmo e lavorato con le università per cambiare il modo in cui i voti degli esami sono ponderati nei loro processi di ammissione. “Se solo avessero guardato un passo più in là del problema immediato e si fossero chiesti quale sia lo scopo dei voti, vale a dire andare all’università per poi essere in grado di trovare un lavoro, avrebbero collaborato con le università e con i luoghi di lavoro per dire: ‘Quest’anno i voti verranno dati in modo diverso’”, afferma Han.

Ricercando l’equità con una soluzione algoritmica, Ofqual ha chiuso gli occhi davanti alle evidenti iniquità del sistema complessivo. “C’è un’ingiustizia a priori nel prevedere i voti degli studenti come se non si fosse verificata una pandemia”, dice Han. “perchè ignora ciò che già sappiamo, ovvero che la pandemia ha amplificato le divisioni digitali nell’istruzione”.

Il fallimento di Ofqual non è unico. In un rapporto pubblicato la scorsa settimana dall’Oxford Internet Institute, i ricercatori hanno scoperto che una delle trappole più comuni in cui cadono le organizzazioni quando implementano algoritmi è la convinzione che risolveranno problemi strutturali davvero complessi. Questi progetti “si prestano a una sorta di pensiero magico”, afferma Gina Neff, professore associato dell’istituto, coautore del rapporto. “In qualche modo si ritiene che l’algoritmo farà giustizia dei pregiudizi dell’insegnante”.

La verità è che gli algoritmi non possono riparare i sistemi che funzionano male, in quanto ne ereditano i difetti. In questo caso, gli studenti e il loro futuro alla fine hanno sopportato il peso maggiore del danno. “Penso che sia la prima volta che un’intera nazione si rende conto del livello di ingiustizia di un algoritmo, ma temo che non sarà l’ultima volta che succede”, dice Fry.

Tuttavia, l’esperienza dovrebbe aver fornito alcune lezioni. Per prima cosa, valutare da subito se l’obiettivo è quello giusto. In secondo luogo, fare un’analisi delle questioni strutturali che devono essere risolte per raggiungere l’obiettivo. Infine, scegliere una soluzione facile da capire, implementare e rivedere, soprattutto in periodi caratterizzati dall’incertezza. Quindi, dice Fry, in questo caso avrebbe significato rinunciare all’algoritmo a favore dei voti previsti dall’insegnante: “Non sto dicendo che sia perfetto”, conclude, “ma almeno si tratta di un sistema semplice e trasparente”.

Immagine: Ms Tech / AP / Getty

(rp)

Related Posts
Total
0
Share