Skip to main content

A oggi, in numerosi siti in tutto il mondo, questa funzione è affidata a fornitori terzi, che impiegano lavoratori temporanei con contratti precari.

di Charlotte Jee

Se Facebook smettesse di controllare quanto scritto sul suo sito in questo momento, chiunque potrebbe pubblicare quello che vuole. L’esperienza dimostra che si creerebbe rapidamente un ambiente infernale, invaso da spam, bullismo, criminalità, video di decapitazioni terroristiche, testi neonazisti e immagini di abusi sessuali su minori. Uno scenario simile comporterebbe l’abbandono da parte degli utenti e di conseguenza degli inserzionisti.

Ma se la moderazione è così importante, non viene trattata come tale. La stragrande maggioranza delle 15.000 persone che trascorrono tutto il giorno a decidere cosa può e non può essere pubblicato su Facebook non lavora nemmeno per l’azienda. Il compito della moderazione dei contenuti è affidata a fornitori terzi, che impiegano lavoratori temporanei con contratti precari

Il loro lavoro è rivedere centinaia di post al giorno, molti dei quali sono profondamente traumatizzantiGli errori sono diffusi, nonostante l’adozione da parte dell’azienda di strumenti di intelligenza artificiale per valutare i post ai quali è necessario porre attenzione. Facebook stessa ha ammesso un tasso di errore del 10 per cento, sia che si tratti di contrassegnare i post da eliminare sia quelli da mantenere. 

Dato che i revisori devono valutare tre milioni di post al giorno, gli errori si attestano sui 300.000. Alcuni sbagli possono avere effetti mortali. Per esempio, i membri delle forze armate del Myanmar hanno usato Facebook per incitare al genocidio contro la minoranza musulmana rohingya nel 2016 e nel 2017.

In seguito l’azienda ha ammesso di non aver applicato le proprie linee guida che vietano i discorsi d’odio e incitamento alla violenza. Secondo un nuovo rapporto dello Stern Center for Business and Human Rights della New York University, se si vuole migliorare la situazione, Facebook deve coinvolgere i moderatori dei contenuti, assumerli e raddoppiare il loro numero. 

“La moderazione dei contenuti non è come le altre attività esternalizzate”, afferma l’autore del documento Paul M. Barrett, vicedirettore del centro. “È una funzione centrale del business dei social media e ciò rende in qualche modo strano che sia trattato come se fosse un problema marginale”.

Perché la moderazione dei contenuti viene sottovalutata in questo modo dai leader di Facebook? In parte per ridurre i costi, dice Barrett. Una politica di assunzioni sarebbe molto costosa per l’azienda, intorno a qualche decina di milioni di dollari (anche se i profitti si attestano a miliardi di dollari). 

Ma c’è un secondo, più complesso, motivo. “L’attività di moderazione dei contenuti non si adatta all’immagine di sé della Silicon Valley. Alcuni tipi di attività sono molto apprezzati e glamour: innovazione di prodotto, marketing intelligente, ingegneria … il mondo della moderazione dei contenuti non risponde a questi requisiti”, spiega Barrett.

A suo parere, è tempo per Facebook di considerare la moderazione come una parte centrale della sua attività. In questo modo si eviterebbero errori catastrofici come quello commesso in Myanmar, si aumenterebbe la responsabilità e si proteggerebbero meglio i dipendenti dai danni alla loro salute mentale.

Inevitabilmente la moderazione dei contenuti comporterà sempre l’esposizione a materiale traumatizzante. Tuttavia, l’azienda potrebbe rendere le procedure più semplici, selezionando con più cura i moderatori per assicurarsi che siano veramente consapevoli dei rischi del lavoro e garantendo che abbiano a disposizione cure e consulenze di prim’ordine. 

Barrett ritiene che la moderazione dei contenuti potrebbe essere qualcosa che tutti i dipendenti di Facebook siano tenuti a fare per almeno un anno per aiutarli a comprendere l’impatto delle loro decisioni. Il rapporto fornisce otto raccomandazioni per Facebook:

– Smettere di esternalizzare la moderazione dei contenuti e aumentare le postazioni sul posto di lavoro.

– Raddoppiare il numero di moderatori per migliorare la qualità della revisione dei contenuti.

– Assumere degli esperti per supervisionare il contenuto che riferiscano direttamente al CEO o al COO.

– Espandere ulteriormente la moderazione nei paesi a rischio in Asia, Africa e altrove.

– Fornire a tutti i moderatori assistenza medica in loco di alta qualità, incluso l’accesso agli psichiatri.

– Sponsorizzare la ricerca sui rischi per la salute legati alla moderazione dei contenuti, in particolare per i disturbi da stress post traumatico.

– Esplorare normative governative su misura per contenuti dannosi. 

– Espandere significativamente il controllo dei fatti per smascherare le informazioni false.

Le proposte sono ambiziose, per non dire altro.  Un portavoce dell’azienda ha affermato che il suo approccio attuale significa che “se dovremo adattare la nostra forza lavoro alle nuove necessità, interverremo”. Barrett ritiene che un recente esperimento condotto in risposta alla crisi del coronavirus mostri che il cambiamento è possibile. 

Facebook ha annunciato che, poiché molti dei suoi moderatori di contenuti non si potevano spostare durante il lockdown, avrebbe richiesto di controllare determinate categorie di contenuti sensibili ai dipendenti interni.

“Trovo molto significativo che in un momento di crisi, Zuckerberg abbia fatto affidamento sulle persone di cui si fida: i suoi dipendenti a tempo pieno”, conclude Barrett. “Forse questo potrebbe essere visto come la base di un confronto interno a Facebook su come regolare il mondo della moderazione dei contenuti”.

Foto: Associated Press