Facebook combatte la disinformazione sul covid con l’IA

Il gigante della tecnologia afferma che, in questo trimestre, l’88,8 per cento dei discorsi che incitano all’odio sono stati rimossi grazie all’intervento dell’intelligenza artificiale.

di Karen Hao

Nel suo ultimo Community Standards Enforcement Report, Facebook ha riportato nel dettaglio gli aggiornamenti che ha apportato ai suoi sistemi di intelligenza artificiale per rilevare i discorsi di odio e disinformazione. L’IA può rimuovere automaticamente i contenuti se il sistema ha la certezza che si tratti di incitamento all’odio, ma la maggior parte dei testi è ancora controllata in prima battuta da un operatore umano.

Il miglioramento è in gran parte guidato da due aggiornamenti ai sistemi di intelligenza artificiale di Facebook. Innanzitutto, l’azienda sta ora utilizzando modelli su larga scala in linguaggio naturale che possono decifrare meglio la sfumatura e il significato di un post. Questi modelli si basano sui progressi della ricerca sull’IA negli ultimi due anni che consentono alle reti neurali di essere addestrate sul linguaggio senza alcuna supervisione umana, eliminando il collo di bottiglia causato dall’intervento di un operatore sui dati.

Il secondo aggiornamento è che i sistemi di Facebook possono ora analizzare contenuti composti da immagini e testo combinati, come nel caso di meme odiosi. L’intelligenza artificiale è ancora limitata nella sua capacità di interpretare tali contenuti di media misti, ma Facebook ha anche rilasciato un nuovo set di dati sui messaggi d’odio e ha promosso il crowdsourcing e lo sviluppo di algoritmi migliori per rilevarli.

Nonostante questi aggiornamenti, l’IA non ha avuto un ruolo altrettanto importante nella gestione dell’ondata di disinformazione sul coronavirus, come dimostrano le numerose teorie cospirative che si sono diffuse sull’origine del virus e le false notizie su presunte terapie. Facebook è stata costretta, infatti, a fare affidamento principalmente su revisori umani di oltre 60 organizzazioni di fact-checking

Solo una volta che una persona ha contrassegnato qualcosa, come un’immagine con un titolo fuorviante, i sistemi di intelligenza artificiale prendono il posto della ricerca di elementi identici o simili e aggiungono automaticamente etichette di avvertimento o eliminano messaggi. 

Il team non è stato ancora in grado di addestrare un modello di apprendimento automatico per trovare nuovi esempi di disinformazione. “La creazione di un nuovo classificatore per qualcosa che comprende contenuti mai visti in precedenza richiede tempo e molto addestramento”, ha dichiarato Mike Schroepfer, CTO di Facebook, in una conferenza stampa.

La sfida rivela i limiti della moderazione dei contenuti basata sull’intelligenza artificiale. Tali sistemi possono rilevare contenuti simili a quelli che hanno visto prima, ma sono in crisi quando compaiono nuovi tipi di disinformazione. Negli ultimi anni, Facebook ha investito molto nello sviluppo di sistemi di intelligenza artificiale che possono adattarsi più rapidamente, ma il problema rimane una delle maggiori sfide della ricerca nel settore.

Immagine di: Eric Risberg / AP

(rp)

Related Posts
Total
0
Share