Чатбот-расист от Microsoft вышел в онлайн, признался в употреблении наркотиков и был снова отключен

Tay призналась в курении наркотических веществ рядом с полицейскими

Чатбот-расист от Microsoft вышел в онлайн, признался в употреблении наркотиков и был снова отключен
Нет, эти глаза врать не могут

Как уже сообщалось на Geektimes, чатбот-девушка Tay, созданная стараниями специалистов Microsoft, стала общаться с обычными смертными в Twitter. Неокрепший ИИ не смог справиться с наплывом троллей, и стал повторять за ними фразы расистского толка. Корпорации пришлось удалить большую часть сообщений своего бота, и отключить его самого до выяснения обстоятельств происшедшего и исправления некоторых параметров общения.

Кроме того, корпорации пришлось извиниться перед пользователями за поведение своего бота. Сейчас, посчитав, что все хорошо, Microsoft вновь включила своего бота. По словам разработчиков, бота научили лучше различать зловредный контент. Тем не менее, почти сразу после очередного запуска бот-расист признался еще и в употреблении наркотиков.

Затем бот попросил более 210000 своих фолловеров не торопиться, и отдохнуть. Эта просьба была повторена множество раз.

После этого Microsoft переключила профиль бота в режим приватности, убрав возможность для других пользователей сети микроблогов видеть твиты Tay.

Стоит напомнить, что в китае бот от Microsoft вполне успешно общается уже долгое время. Здесь идет взаимодействие с более, чем 40 млн пользователей из Twitter, Line, Weibo и некоторых других социальных ресурсов.

Но вот англоязычный бот что-то никак не справится с информацией, которой его пичкают интернет-тролли.

Источник

Microsoft, tay, чатбот

Читайте также