All’interno di un programma pilota che partirà negli Stati Uniti nei prossimi mesi, l’azienda ha annunciato che assumerà collaboratori part-time per accelerare il fact-checking e svelare più rapidamente chi pubblica il falso.
di Charlotte Jee
Il sistema di apprendimento automatico di Facebook individua potenziali informazioni errate utilizzando vari segnali. Per esempio, i commenti sul post potrebbero esprimere incredulità o la pagina che lo condivide potrebbe avere una cronologia di condivisione di informazioni errate.
Questi post saranno contrassegnati da un nuovo gruppo di collaboratori (Facebook li chiama “revisori della comunità”) che faranno una serie di ricerche per trovare altre fonti per supportare o annullare il reclamo. Se un post dice che una celebrità è morta, si può andare a verificare se alcune fonti di notizie affidabili hanno riportato la storia. Le loro conclusioni verranno quindi condivise con i fact checkers di Facebook, nel tentativo di segnalare quali storie devono essere riviste e valutate con la massima urgenza.
Il processo di verifica dei fatti va indubbiamente velocizzato, ma Facebook farà affidamento su personale esterno senza esperienza, a basso costo e a tempo parziale invece di assumere revisori esperti. Ancora più sconcertante appare l’idea di scegliere un gruppo di persone rappresentative degli utenti di Facebook negli Stati Uniti, e non dei residenti in generale in America.
L’attuale programma di verifica dei fatti di Facebook è profondamente imperfetto. È completamente esternalizzato a terzi (giornali, think thanks e altre organizzazioni accreditate per svolgere questo tipo di lavoro) e pieno di contraddizioni. Esiste solo in alcuni dei paesi in cui lavora Facebook e spesso si basa su una sola organizzazione, il che significa che l’azienda non ha alcun programma di controllo dei fatti se quel gruppo si ritira, come è avvenuto in Olanda il mese scorso.
Facebook pensa che consentire a terzi di verificare i fatti per suo conto gli consenta di lavarsi le mani da qualsiasi pretesa di parzialità, ma l’azienda continua a fare scelte politiche ben precise. Per esempio, Facebook stabilisce un’eccezione per la pubblicità elettorale dei politici, che è di per sé una precisa scelta editoriale.
Facebook non lo ammetterà, tuttavia, e sosterrà che si tratta di un editore responsabile dei contenuti pubblicati sulla piattaforma. È improbabile che la nuova politica soddisfi coloro che affermano che l’azienda sta facendo troppo poco per fermare la diffusione della disinformazione.
Foto: Getty