La strage in Nuova Zelanda svela le gravi falle nei social media

Venerdì scorso un uomo ha trasmesso in diretta l’omicidio di dozzine di innocenti riuniti presso due moschee a Christchurch, in Nuova Zelanda, ricordandoci le terribili falle nelle regole e negli algoritmi che governano i social media e promuovono contenuti violenti e offensivi.

di Will Knight

Nei giorni precedenti la strage, l’autore avrebbe annunciato le sue intenzioni e pubblicato un manifesto online; in seguito ha trasmesso in diretta su Facebook il suo orrendo crimine. L’attacco è costato la vita a dozzine di persone.

Diretta video: Negli ultimi 18 mesi, a seguito di scandali per molestie e fake news, le società di social media hanno cominciato a investire pesantemente nella moderazione dei contenuti. Ciononostante, il video di quest’ultima sparatoria si è ugualmente diffuso; la diretta sarebbe durata 20 minuti, e il video sarebbe stato condiviso milioni di volte su YouTube per un’ora intera.

Secondo gli esperti, diversi fattori avrebbero contribuito al superamento dei filtri posti dai social network.

Le sfide della diretta: L’individuazione dei video trasmessi in tempo reale è fondamentale, onde evitare che si diffondano anche su altre piattaforme. Gli strumenti di moderazione adottati dai social media, però, non sono in grado di intervenire in tempo reale. È impossibile automatizzare il processo in maniera efficace, mentre identificare video e dirette da rimuovere manualmente “è come cercare un ago nel pagliaio di dati che scorrono incessantemente nella rete”, spiega Charles Seife, un professore della Scuola di Giornalismo della NYU. Secondo Seife, Facebook potrebbe richiedere ai suoi utenti di maturare un certo livello di reputazione prima di poter condividere contenuti in diretta.

Come guardie e ladri: I moderatori sono sopraffatti dalla mole di materiale caricato online. Copie del video sono state pubblicate su YouTube a una velocità tale che i supervisori incaricati di intercettare contenuti inappropriati non sono riusciti a impedirne immediatamente la diffusione. Questi operatori dispongono solitamente di pochi secondi per prendere una decisione. Il processo può essere parzialmente automatizzato, ma alcune copie potrebbero ugualmente superare questi filtri grazie a tagli o distorsioni apportate all’interno del contenuto.

Il fallimento degli algoritmi: Le società di social media ricorrono ad accorgimenti negli algoritmi per ridurre la priorità dei contenuti sospetti. Mike Ananny, associate professor della Southern California, ritiene che questi algoritmi non siano stati in grado di operare correttamente di fronte alla popolarità dei video condivisi.

Non è un nostro problema: Questi fattori riflettono il problema sistemico fondamentale: Facebook YouTube e le altre grandi società non si considerano gli arbitri responsabili dei contenuti pubblicati sulle loro piattaforme. Ricerche dimostrano che le fonti di estrema destra possono essere controllate più attivamente per prevenire la diffusione di contenuti violenti. “Tendono a considerarsi post hoc”, spiega Ananny. “È una questione profondamente culturale”.

(MO)

Related Posts
Total
0
Share