L’imbarazzante sexbot neonazista di Microsoft
Sono bastate poche ore perché un chatbot sguinzagliato da Microsoft si lasciasse traviare dai suoi interlocutori umani e cominciasse a pubblicare offese razziste. Vi spieghiamo cosa è andato storto, e cosa poteva essere evitato.
di Rachel Metz 29-03-16
Quando Microsoft ha presentato Tay, un chatbot dotato di intelligenza artificiale con la personalità di una vivace diciannovenne, la società sperava che le persone cominciassero a interagirvi su piattaforme come Twitter, Kik e GroupMe. L’idea era che questa interazione potesse aiutare l’intelligenza artificiale ad apprendere divertendosi ed aiutando i suoi creatori nella loro ricerca sulle intelligenze artificiali.