Un nuovo sistema di apprendimento automatico cerca di prevedere quando una conversazione online rischia di trasformarsi in una lite feroce.
di Jackie Snow
Come funziona: Un gruppo di ricercatori ha raccolto oltre 1.200 discussioni dall’apposita sezione fra le pagine di Wikipedia Talk. Le informazioni sono state analizzate e catalogate in base alle “espressioni linguistiche” utilizzate nelle conversazioni, inclusi i tentativi di esprimere buone intenzioni, quali “per favore” e “grazie”, o altre parole che potessero indicare la volontà di conversare pacificamente, come “io credo” o “io penso”. Attraverso l’utilizzo di questi elementi identificativi, il team ha addestrato un sistema affinché prevedesse la possibilità che un argomento si tramutasse in diverbio o lite.
I risultati: Gli esseri umani che hanno partecipato a un confronto sono stati in grado di prevedere l’esito di una conversazione con una precisione del 72 percento, contro il 61,6 percento dell’algoritmo sviluppato dai ricercatori. Il risultato non è certo eclatante, ma la ricerca ha permesso di rilevare alcuni fattori ricorrenti. I commenti che cominciano immediatamente con “tu” o con una domanda, ad esempio, indicherebbero una buona probabilità che la discussione sfoci in una lite.
Perché conta: Una IA capace di prevedere l’esito di una conversazione potrebbe aiutare diverse società (come Twitter) a realizzare strumenti per sedare una discussione troppo animata o salvare una conversazione online.