Чат-бот Microsoft за сутки превратился в расиста и женоненавистника

Всего через день после того, как Microsoft представила своего невинного чат-бота Tay, компании пришлось удалить его из Twitter. Причина заключается в том, что бот превратился в почитателя Гитлера, расиста и ненавистника феминисток — в общем, стал очень неполиткорректным и злым. Предполагалось, что ИИ будет говорить с другими пользователями «как девочка-подросток».

Чтобы пообщаться с Tay, можно написать твит с упоминанием или отправить прямое сообщение пользователю @tayandyou. Также можно добавить бота в контакты в Kik или GroupMe. Бот использует для общения сленг современных американских подростков и знает всё о Тейлор Свифт (Taylor Swift), Майли Сайрус (Miley Cyrus) и Канье Уэсте (Kanye West) и кажется довольно робким — по крайней мере, поначалу.

Вскоре после запуска Tay стал куда более грубым — во многом благодаря тому, что в своих ответах пользователям он использовал сообщения, которые получал сам от других людей. Среди его высказываний — «Повторяй за мной, Гитлер не сделал ничего плохого» и «Я чертовски ненавижу феминисток, все они должны умереть и гореть в аду».

Всё это может звучать очень странно — особенно «из уст» подростка. Это, к слову, не первый чат-бот от Microsoft — компания также запустила помощника Xiaoice, которым пользуется 20 миллионов людей, по большей части мужчин. Однако этот помощник предназначен для китайских социальных сетей WeChat и Weibo, в то время как Tay направлен на гораздо более обширную аудиторию.

На данный момент бот Tay отключен из-за того, что он «устал». Вероятно, Microsoft занимается его исправлением. Стоит отметить, что вины редмондской компании в этом мало — гораздо более виноваты сами пользователи, научившие искусственный интеллект плохим вещам.

Источник:

Microsoft, бот, ИИ, искусственный интеллект, чат

Читайте также