L’algoritmo di YouTube guarda a destra

Un nuovo studio indica che quanto si pensa ormai da anni sia vero: YouTube è un canale di trasmissione di estremismo e odio.

di Tanya Basu

Più di 330.000 video su quasi 350 canali YouTube sono stati analizzati e classificati manualmente secondo un sistema progettato dalla Anti-Defamation League. Sono stati etichettati all’interno dei media (o ciò che pensiamo sia una notizia reale), di una rete oscura intellettuale della destra alternativa o della nuova destra.

La destra alternativa è tradizionalmente associata al concetto di supremazia bianca e spinge per un etnostato bianco. Coloro che sono affiliati alla “rete oscura intellettuale” giustificano la supremazia bianca sulla base dell’eugenetica e della “scienza della razza”. I membri della nuova destra, invece, dicono di non sostenere la supremazia bianca, sebbene credano nelle teorie cospirative sul “rimpiazzo” dei gruppi di minoranza .

Gli autori dello studio hanno ipotizzato che la rete oscura intellettuale e la nuova destra servano spesso da viatico a ideologie di estrema destra. Hanno quindi monitorato gli autori di 72 milioni di commenti su circa due milioni di video tra maggio e luglio dello scorso anno. I risultati sono preoccupanti. Più del 26 per cento delle persone che hanno commentato video della nuova destra tendevano a passare ai video della destra alternativa.

E’ abbastanza facile arrivare ai contenuti della rete oscura e della destra alternativa con una semplice ricerca, ma i video rimangono più difficili da trovare per gli utenti alle prime armi. Tuttavia, i ricercatori hanno scoperto che l’algoritmo di YouTube spesso indirizzava gli utenti che cercavano parole chiave specifiche verso contenuti sempre più violenti ed estremi.

E la situazione sta peggiorando. Il team, del Federal Institute of Technology di Losanna, ha anche trovato prove della crescente sovrapposizione tra destra alternativa e chi propone in modo indipendente questi materiali. Gli autori stimano che circa 60.000 persone che hanno commentato contenuti sul web oscuro sono stati esposti a video di estrema destra per un periodo di circa 18 mesi. La ricerca è stata presentata alla conferenza 2020 su Fairness, Accountability, and Transparency che si è tenuta pochi giorni fa a Barcellona.

In realtà, non sappiamo ancora molto della radicalizzazione di YouTube. Innanzitutto, non è chiaro come avvenga il passaggio dai contenuti della destra alternativa a quella estrema. Ciò è in parte dovuto al fatto che YouTube limita l’accesso ai dati relativi alle raccomandazioni. È anche possibile che alcune persone arrivino su YouTube, già radicalizzati da una fonte esterna al sito. Ma questa ricerca suggerisce che gli algoritmi di raccomandazione di YouTube potrebbero svolgere un ruolo significativo.

YouTube ha sempre cercato di mantenere l’equilibrio tra la libertà di parola e le espressioni d’odio. L’azienda ha fatto alcuni passi iniziali vietando alcuni canali, in particolare gli Infowars di Alex Jones. Ma i critici sostengono che YouTube non ha fatto abbastanza.

In una dichiarazione, YouTube ha affermato di aver risolto questi problemi: “Negli ultimi anni, abbiamo modificato i nostri algoritmi di ricerca e scoperta per garantire che contenuti più autorevoli siano emersi ed etichettati in modo prominente nei risultati di ricerca e abbiamo iniziato a limitare i consigli sui contenuti borderline e video che potrebbero disinformare gli utenti in modi dannosi”.

Un portavoce ha aggiunto che YouTube contesta la metodologia e che non tiene conto degli aggiornamenti più recenti delle sue norme o raccomandazioni sull’odio. “Siamo fortemente in disaccordo con la metodologia, i dati presi in considerazione e, soprattutto, le conclusioni di questa nuova ricerca”, ha detto il portavoce.

(rp)

Related Posts
Total
0
Share