Dimezzati i video legati alla teoria del complotto

YouTube afferma di essere riuscita a ridurre drasticamente il numero di video rientranti nella teoria della cospirazione, ma secondo una nuova ricerca sembra che la situazione sia differente.

di Charlotte Jee

I ricercatori hanno addestrato un algoritmo per aumentare i filtri per evitare la diffusione di video non attendibili, esaminando attentamente le descrizioni fornite e i commenti. Sono state analizzate otto milioni di “raccomandazioni” di YouTube per 15 mesi. Si è scoperto che i numeri sono effettivamente diminuiti gradualmente, fino ad arrivare a circa il 70 per cento in meno nel punto più basso a maggio 2019.

Tuttavia, i video inaffidabili che l’algoritmo di YouTube continua a “raccomandare” sono aumentati costantemente da allora. Questi consigli ora rappresentano solo il 40 per cento in meno rispetto a quando YouTube ha iniziato il suo giro di vite.

I consigli di YouTube sono responsabili di quasi i tre quarti delle oltre un miliardo di ore che le persone trascorrono ogni giorno a guardare video su YouTube.

I ricercatori hanno scoperto che i numeri altalenanti sono legati al tipo di video. YouTube è riuscita a cancellare quasi completamente alcune teorie del complotto dalle sue raccomandazioni, comprese quelle che sostengono che il governo degli Stati Uniti ha contribuito a organizzare l’11 settembre o che la terra è piatta. Tuttavia, alcuni continuano a prosperare, compresi i video che espongono la negazione del cambiamento climatico.

I ricercatori hanno detto al “New York Times” che questi risultati indicano che YouTube ha deciso quale tipo di disinformazione tollererà, anche se deve ancora divulgare pubblicamente tale politica. Questo modo di procedere è legale, dato che YouTube è un forum privato e quindi non si applicano le leggi sulla libertà di parola, come è stato chiarito da una recente sentenza emessa da una corte d’appello degli Stati Uniti.

Non è chiaro il funzionamento degli algoritmi di raccomandazione di YouTube e inoltre l’azienda li modifica regolarmente. YouTube afferma che l’obiettivo del motore di raccomandazione è “aiutare gli utenti a trovare i video che vogliono e massimizzare il coinvolgimento e il gradimento di chi li guarda”.

Anche se studi precedenti hanno dimostrato che YouTube ha svolto un ruolo nella radicalizzazione degli utenti, è stato difficile stabilirne esattamente le modalità. Ciò è in parte dovuto al fatto che è praticamente impossibile replicare l’esperienza del singolo utente. Questo studio ha riscontrato anche questa limitazione: è stato in grado di studiare il sito solo dal punto di vista di qualcuno che si è disconnesso, il che non rappresenta il modo in cui la maggior parte delle persone usa YouTube.

(rp)

Related Posts
Total
0
Share