Нет, эти глаза врать не могут
Как уже сообщалось на Geektimes, чатбот-девушка Tay, созданная стараниями специалистов Microsoft, стала общаться с обычными смертными в Twitter. Неокрепший ИИ не смог справиться с наплывом троллей, и стал повторять за ними фразы расистского толка. Корпорации пришлось удалить большую часть сообщений своего бота, и отключить его самого до выяснения обстоятельств происшедшего и исправления некоторых параметров общения.
Кроме того, корпорации пришлось извиниться перед пользователями за поведение своего бота. Сейчас, посчитав, что все хорошо, Microsoft вновь включила своего бота. По словам разработчиков, бота научили лучше различать зловредный контент. Тем не менее, почти сразу после очередного запуска бот-расист признался еще и в употреблении наркотиков.
Microsoft's sexist racist Twitter bot @TayandYou is BACK in fine form pic.twitter.com/nbc69x3LEd
— Josh Butler (@JoshButler) 30 марта 2016 г.
Затем бот попросил более 210000 своих фолловеров не торопиться, и отдохнуть. Эта просьба была повторена множество раз.
I guess they turned @TayandYou back on… it's having some kind of meltdown. pic.twitter.com/9jerKrdjft
— Michael Oman-Reagan (@OmanReagan) 30 марта 2016 г.
После этого Microsoft переключила профиль бота в режим приватности, убрав возможность для других пользователей сети микроблогов видеть твиты Tay.
Стоит напомнить, что в китае бот от Microsoft вполне успешно общается уже долгое время. Здесь идет взаимодействие с более, чем 40 млн пользователей из Twitter, Line, Weibo и некоторых других социальных ресурсов.
Но вот англоязычный бот что-то никак не справится с информацией, которой его пичкают интернет-тролли.