Il nuovo chatbot di Facebook batte tutti gli altri

Blender, il più recente sistema di IA dell’azienda, potrebbe aiutare gli assistenti virtuali a superare molte delle loro carenze, anche se permangono ancora serie difficoltà a uguagliare le prestazioni umane.

di Karen Hao

Nonostante tutti i progressi degli ultimi anni, i chatbot e gli assistenti virtuali non sono ancora in grado di sostenere una conversazione in modo accettabile. La maggior parte è orientata ai compiti: l’utente fa una domanda e loro si conformano. Alcuni sono estremamente frustranti: non arrivano mai a dare quello che si sta cercando. Altri sono terribilmente noiosi: mancano dell’imprevedibilità di un partner umano. 

Funzionano bene solo quando si deve impostare un timer. Ma poiché questi robot stanno diventando sempre più popolari come interfacce per qualsiasi attività, dalla vendita al dettaglio all’assistenza sanitaria ai servizi finanziari, le inadeguatezze diventano sempre più evidenti.

Ora Facebook ha rilasciato un nuovo chabot open source che, a parere dell’azienda è in grado di parlare di quasi tutto in un modo accattivante e interessante.  “Il dialogo è una specie di problema di intelligenza artificiale complessa”, afferma Stephen Roller, un ingegnere di ricerca di Facebook che ha co-guidato il progetto. “Se si è capaci di sostenere un dialogo, ci si avvicina all’obiettivo dell’IA: replicare l’intelligenza”.

L’abilità di Blender proviene dall’immensa quantità dei suoi dati di allenamento. È stato inizialmente addestrato su 1,5 miliardi di conversazioni disponibili pubblicamente su Reddit, per fornire una base per generare risposte in un dialogo. È stato quindi messo a punto con set di dati aggiuntivi per ciascuna delle tre abilità: conversazioni con componenti emotive, per insegnare l’ empatia al sistema (per esempio, se qualcuno dice: “mi hanno promosso”, il chatbot risponde: “Congratulazioni!“); conversazione su base informativa con un esperto che trasmette la conoscenza; e conversazioni per fargli acquisire “personalità”.

Il modello risultante è 3,6 volte più grande di Meena, il chabot di Google, che è stato annunciato a gennaio, ed è talmente esteso che non può stare su un singolo dispositivo e si deve appoggiare a due distinti chip di elaborazione. All’epoca, Google proclamò che Meena era il miglior chatbot al mondo. Nei test di Facebook, tuttavia, il 75 per cento dei valutatori umani ha trovato Blender più coinvolgente di Meena, e il 67 per cento ha sostenuto che si avvicina di più a un essere umano. 

Il chatbot ha anche ingannato i valutatori umani il 49 per cento delle volte nel pensare che si trattasse di conversazioni tra persone reali. Nonostante questi risultati siano impressionanti, le abilità di Blender non sono ancora vicine a quelle di un essere umano. Finora, il team ha valutato il chatbot solo su brevi conversazioni che non vanno oltre i 14 turni di scambio verbale. 

Se si continuasse a chattare più a lungo, sospettano i ricercatori, la discussione perderebbe probabilmente di senso. “Questi modelli non sono in grado di andare in profondità”, afferma Emily Dinan, l’altra responsabile del progetto. 

Blender ha anche la tendenza ad inventare fatti, una limitazione diretta delle tecniche di apprendimento profondo utilizzate per costruirla. In sostanza genera le sue frasi da correlazioni statistiche piuttosto che da un database di conoscenza. Di conseguenza, può mettere insieme una descrizione dettagliata e coerente di una celebrità famosa, per esempio, ma ricorrendo a informazioni completamente false. Il team prevede di sperimentare l’integrazione di un database della conoscenza nella generazione della risposta del chatbot.

Valutatori umani mettono a confronto diversi tipi di scambi conversazionali dei chatbot.Facebook

Un’altra grande sfida con qualsiasi sistema di chatbot è di impedirgli di distorcere la realtà. Poiché tali sistemi sono in definitiva formati sui social media, possono finire per dare credibilità alle false notizie che girano su Internet (come è accaduto miseramente nel 2016 a Tay, il chatbot di Microsoft).

Il team ha cercato di affrontare questo problema chiedendo ai crowdworker di filtrare il linguaggio dannoso dai tre set di dati che ha usato per la messa a punto, ma non ha potuto fare lo stesso con il set di dati di Reddit a causa delle sue dimensioni. Il team spera di sperimentare meccanismi di sicurezza migliori, incluso un classificatore del linguaggio “tossico” in grado di verificare la risposta del chatbot.

I ricercatori ammettono, tuttavia, che forse non sarà sufficiente. A volte un commento del tipo: “Sì, è fantastico”, può sembrare adeguato, ma in un contesto delicato, come nel caso di una risposta a un commento razzista, può assumere significati deleteri.

A lungo termine, il team AI di Facebook è anche interessato a sviluppare agenti conversazionali più sofisticati in grado di rispondere a segnali visivi e a singole parole. Un progetto sta sviluppando un sistema chiamato Image Chat, per esempio, in grado di commentare in modo sensato e con originalità foto inviate da un utente.

Immagine: Un esempio di conversazione tra il chatbot e un utente.Facebook

(rp)

Related Posts
Total
0
Share