L’IA di Facebook cerca i contenuti pericolosi

La stragrande maggioranza dell’opera di moderazione di Facebook viene ora eseguita automaticamente dai sistemi di apprendimento automatico dell’azienda, riducendo la quantità di contenuti ad alto impatto emotivo che i moderatori devono rivedere. 

di Charlotte Jee 

Nel suo ultimo rapporto sull’applicazione delle norme comunitarie, pubblicato all’inizio di questo mese, l’azienda ha affermato che il 98 per cento dei video e delle foto di terroristi viene rimosso prima che qualcuno abbia la possibilità di vederli.

Facebook ha addestrato i suoi sistemi di apprendimento automatico a identificare ed etichettare gli oggetti nei video, da quelli banali, come vasi o persone, a quelli pericolosi, come pistole o coltelli. L’intelligenza artificiale di Facebook utilizza due approcci principali per cercare contenuti pericolosi. Uno è l’impiego di reti neurali che cercano caratteristiche e comportamenti di oggetti noti e li etichettano con percentuali variabili di sicurezza.

Queste reti neurali sono addestrate su una combinazione di video pre-etichettati dai suoi revisori umani, rapporti degli utenti e, tra breve, dai video ripresi dalla polizia metropolitana di Londra. Le reti neurali sono in grado di utilizzare queste informazioni per indovinare cosa potrebbe mostrare l’intera scena e se contiene comportamenti o immagini che dovrebbero essere contrassegnati. 

Se il sistema decide che un file video contiene immagini o comportamenti problematici, può rimuoverlo automaticamente o inviarlo a un revisore di contenuti. Se infrange le regole, Facebook può quindi creare un hash – una stringa univoca di numeri – per segnalarlo a tutto il sistema in modo che altri contenuti corrispondenti vengano automaticamente eliminati se qualcuno tenta di ricaricarlo. Questi contenuti che violano gli hash possono essere condivisi con altre aziende di social media per eliminare le copie del file in questione.

“I video della Metropolitan Police sono incredibilmente utili per noi. Gli eventi terroristici sono rari, per fortuna, ma per noi significa che la quantità di dati raccolti per l’addestramento è modesta”, ha detto al telefono il responsabile tecnico Nicola Bortignon.

Facebook è impegnata ad automatizzare i sistemi di comprensione del significato, delle sfumature di senso e del contesto del linguaggio. Ecco perché l’azienda si affida alle persone per segnalare la stragrande maggioranza dei post di bullismo e molestie che infrangono le sue regole: solo il 16 per cento di questi post è identificato dai suoi sistemi automatizzati. 

Con i progressi della tecnologia, tuttavia, questi dati sono destinati a migliorare. Il problema a oggi più serio sembra rimanere la comprensione del linguaggio, che rappresenta una delle maggiori sfide del settore.

A marzo, un terrorista ha ucciso 49 persone in due moschee a Christchurch, in Nuova Zelanda, e ha trasmesso in streaming il massacro su Facebook e i suoi video sono circolati sul sito per mesi. E’ stato un campanello d’allarme per l’industria del settore. Se succedesse di nuovo, ci sono molte più possibilità che il video venga immediatamente scoperto e rimosso.

Foto: Facebook

Related Posts
Total
0
Share