Skip to main content

Pubblicamente, la piattaforma afferma che sta cercando di fare il possibile per ridurre al minimo l’amplificazione di contenuti estremi, ma il suo vero obiettivo sembra più attento ai profitti.

di Karen Hao

Gli algoritmi di raccomandazione sono oggi alcuni dei più potenti sistemi di apprendimento automatico grazie alla loro capacità di modellare le informazioni che consumiamo. L’algoritmo di YouTube, in particolare, esercita un’influenza considerevole.

Si stima che la piattaforma sia seconda solo a Google nel traffico web e il 70 per cento di ciò che gli utenti guardano viene loro inviato attraverso consigli. Negli ultimi anni, questa influenza è stata oggetto di un attento esame. Poiché l’algoritmo è ottimizzato per indurre le persone a interagire con i video, tende a offrire scelte che rafforzano ciò che a qualcuno già piace o almeno crede sia così.

Questo modo di procedere spesso premia anche i video più estremi e controversi, che gli studi hanno dimostrato in grado di spingere le persone a perdere il contatto con la realtà e alla radicalizzazione politica.

Mentre YouTube ha dichiarato pubblicamente che sta lavorando per affrontare questi problemi, un nuovo documento di Google, che possiede YouTube, sembra raccontare una storia diversa. Propone un aggiornamento dell’algoritmo della piattaforma che ha lo scopo di raccomandare agli utenti contenuti ancora più mirati al fine di un maggiore coinvolgimento.

A oggi, il sistema di consigli di YouTube funziona in questo modo. Per popolare la barra laterale dei video consigliati, prima compila un elenco di diverse centinaia di video trovando quelli che corrispondono agli argomenti prescelti dall’utente e possibili materiali limitrofi a quanto si sta guardando. Quindi classifica l’elenco in base alle preferenze dell’utente, che il sistema apprende contando i clic, i “Mi piace” e altre interazioni, in un algoritmo di apprendimento automatico.

Tra gli aggiornamenti proposti, i ricercatori affrontano un problema particolare che identificano con l’espressione “pregiudizio implicito”. Si riferisce al modo in cui i consigli stessi possono influenzare il comportamento dell’utente, rendendo difficile decifrare se ha cliccato su un video perché è di suo gradimento o solo perché gli è stato raccomandato. L’effetto è che nel tempo il sistema può indurre gli utenti a fare scelte sempre più lontane da quanto vogliono realmente guardare.

Per ridurre questo pregiudizio, i ricercatori suggeriscono una modifica all’algoritmo: ogni volta che un utente fa clic su un video, ciò influisce anche sulla posizione del video nella barra laterale delle raccomandazioni. I video che si trovano nella parte superiore della barra laterale hanno meno peso se inseriti nell’algoritmo di apprendimento automatico; i video in fondo alla classifica, che richiedono all’utente di scorrere, hanno una valutazione più alta. 

Quando i ricercatori hanno testato le modifiche in diretta su YouTube, hanno riscontrato un coinvolgimento significativamente maggiore da parte degli utenti.
Sebbene il documento non dica se il nuovo sistema sarà distribuito in modo permanente, Guillaume Chaslot, un ex ingegnere di YouTube cofondatore di AlgoTransparency.org, ha dichiarato di essere “abbastanza fiducioso” che ciò accadrà rapidamente: “Hanno detto che aumenta il tempo di visualizzazione dello 0,24 per cento. Credo si tratti di un importo nell’ordine di decine di milioni di dollari”.

Diversi esperti che hanno esaminato il documento hanno affermato che i cambiamenti potrebbero avere effetti perversi. “Nella nostra ricerca, abbiamo scoperto che gli algoritmi di YouTube hanno creato una comunità isolata di estrema destra, spinto gli utenti verso i video dei bambini e promosso la disinformazione”, ha dichiarato Jonas Kaiser, del Berkman Klein Center for Internet & Society.

Jonathan Albright, direttore della sicurezza digitale del Tow Center for Digital Journalism, ha affermato che “la riduzione del pregiudizio legato alla posizione è un buon inizio per rallentare il ciclo di feedback dei contenuti di bassa qualità”, ma in teoria il cambiamento potrebbe favorire ulteriormente i contenuti estremi.

Becca Lewis, un ex ricercatore di Data & Society che studia l’estremismo online, ha affermato che è difficile capire che tipo di cambiamenti possono verificarsi. “Questo è vero anche all’interno di YouTube, ha affermato. “Ci sono così tante comunità diverse su YouTube, modi diversi in cui le persone usano il sito, diversi tipi di contenuti, che le implicazioni saranno di volta in volta diverse. Per l’azienda, gli utenti sono una specie di cavie”.

Quando gli è stato richiesto un commento, un portavoce di YouTube ha dichiarato che i suoi ingegneri e i team di prodotto avevano stabilito che le modifiche non avrebbero comportato gabbie di filtro. Al contrario, l’azienda si aspetta che le modifiche le riducano e diversifichino le raccomandazioni.

Tutti e tre i ricercatori esterni a “MIT Technology Review” contattati raccomandano a YouTube di trascorrere più tempo a esplorare l’impatto dei cambiamenti algoritmici attraverso metodi come interviste, sondaggi e input dell’utente. In una certa misura, YouTube lo ha fatto, ha detto il portavoce, lavorando per rimuovere i contenuti estremi sotto forma di incitamento all’odio sulla sua piattaforma.

“YouTube dovrebbe dedicare più energia a capire le conseguenze dei cambiamenti e non a fare in modo che i suoi algoritmi mantengano gli utenti legati alla piattaforma”, ha affermato Kaiser. “Indubbiamente YouTube non ha alcun interesse commerciale ad agire in questo modo”, ha aggiunto Lewis. “ma dovrebbe sentire il richiamo dell’imperativo etico”.

(rp)