tay

Zo — новый «умный» чатбот от Microsoft

Zo — новый «умный» чатбот от Microsoft

Ранее в этом году Microsoft представила чатбота Tay, работающего на базе искусственного интеллекта. Это было очень интересный и необычный продукт: в большинстве случаев он работал отлично, однако иногда вёл себя попросту непристойно. Чатбот благодаря усилиям пользователей быстро превратился в расиста…
Читать дальше
Microsoft снова запустила чат-бота Tay

Microsoft снова запустила чат-бота Tay

Многострадальный чат-бот по имени Tay от Microsoft снова в строю. На прошлой неделе разработчики выключили его из-за того, что искусственный интеллект превратился в расиста, но сейчас бот снова отправляет пользователям Twitter сообщения. При этом один твит очень часто повторяется: «Ты…
Читать дальше
Чатбот-расист от Microsoft вышел в онлайн, признался в употреблении наркотиков и был снова отключен

Чатбот-расист от Microsoft вышел в онлайн, признался в употреблении наркотиков и был снова отключен

Tay призналась в курении наркотических веществ рядом с полицейскими Нет, эти глаза врать не могут Как уже сообщалось на Geektimes, чатбот-девушка Tay, созданная стараниями специалистов Microsoft, стала общаться с обычными смертными в Twitter. Неокрепший ИИ не смог справиться с наплывом…
Читать дальше
Microsoft официально извинилась за поведение чатбота Tay

Microsoft официально извинилась за поведение чатбота Tay

Как уже сообщалось на Geektimes, корпорация Microsoft запустила в Twitter ИИ-бота, имитирующего общение подростка. И всего за сутки бот научился плохим вещам, повторяя различные нетолерантные высказывания пользователей сервиса микроблогов. Чатбот, можно сказать, попал в плохую компанию. Настолько плохую, что он…
Читать дальше
Почему девушка-чатбот от Microsoft поддалась влиянию троллей c 4chan

Почему девушка-чатбот от Microsoft поддалась влиянию троллей c 4chan

Как известно, вчера компании Microsoft пришлось «усыпить» чатбота Tay — программу ИИ, которая моделировала личность и стиль разговора 19-летней американской девушки и обладала функцией самообучения. Разработчики из Microsoft Research надеялись, что Tay с каждым днём будет становится всё умнее, впитывая…
Читать дальше
Microsoft официально извинилась за поведение чатбота Tay

Microsoft запустила в Twitter ИИ-бота — подростка, и он за сутки научился плохим вещам

Под влиянием пользователей-людей самообучающийся бот стал расистом всего за день. Бота пришлось отключить Практически все техно-корпорации так либо иначе участвуют в разработке ИИ. Самообучающиеся автомобили с компьютерной системой управления, голосовые помощники или боты для Twitter. Корпорация Microsoft на днях представила…
Читать дальше