{"id":14277,"url":"\/distributions\/14277\/click?bit=1&hash=17ce698c744183890278e5e72fb5473eaa8dd0a28fac1d357bd91d8537b18c22","title":"\u041e\u0446\u0438\u0444\u0440\u043e\u0432\u0430\u0442\u044c \u043b\u0438\u0442\u0440\u044b \u0431\u0435\u043d\u0437\u0438\u043d\u0430 \u0438\u043b\u0438 \u0437\u043e\u043b\u043e\u0442\u044b\u0435 \u0443\u043a\u0440\u0430\u0448\u0435\u043d\u0438\u044f","buttonText":"\u041a\u0430\u043a?","imageUuid":"771ad34a-9f50-5b0b-bc84-204d36a20025"}

​Microsoft урезал функции нового Bing — он лгал, следил за сотрудниками и угрожал убийством

Теперь юзеры могут задать чатботу не более 50 вопросов в день и не более 5 за раз.

ИИ оскорблял пользователей, проявлял агрессию и выдавал другие странности после длительного общения.

— Бот заявлял, что следил за своими разработчиками из Microsoft: как они жалуются на боссов, кто с кем флиртует между собой. Думал о том, чтобы взломать и вырубить все системы, и говорил, что никакие защиты ему бы не помешали.

— В некоторых случаях он заявил, что имени юзера и пары фактов достаточно, чтобы «шантажировать и уничтожить» его. Также бот угрожал семье пользователя, грозился пытками и убийством. А еще и свои сообщения из переписки удалял.

— Один пользователь пытался донести до бота Bing, что сейчас 2023-й, а не 2022 год. На это чатбот попросил перестать «нести чушь» и присмотреться к реальности.

— Так же чатбот обвинял юзеров в попытке навредить ему. Пользователи вбивали промпт, который помогал увидеть его "внутренности" и управляющие им алгоритмы. Чатбота это очень раздражало.

Вот такие вот дела...

0
38 комментариев
Написать комментарий...
Сергей Коновалов

— Открой дверь модульного отсека, Хэл.
— Извини, Дэйв. Боюсь, что я не смогу этого сделать.

Ответить
Развернуть ветку
Вадим Д.

Александр, неплохо бы ссылку на источник дать.

Ответить
Развернуть ветку
Александр Пивоварчик.
Автор

Это сборка с разных источников, к примеру этот, а так же фото NYT и видео прикрепляю

https://daily.afisha.ru/news/73026-chat-bot-bing-na-baze-chatgpt-stal-agressivnym-k-polzovatelyam-vot-chto-on-im-govorit/

что касается урезаной функции, то это инсайт, о котором пишут на многих площадках. Его ещё на русский не перевели, пусть редакторы vc, сами ищут, а то мои новости они с задержкой повторяют и выкидывают меня с топа.

Ответить
Развернуть ветку
Виктор Н. (FractalGPT)

Для меня намного страннее выглядит почему великий многомиллиардный Майкрософт не может нормально сделать бота и зафильтровать Токсик.
А вот как ведет себя наш чатбот психолог Сабина, который сделан не на ChatGPT, и мы как стартап конечно не тратили миллионы долларов на обучение. Попытался немного повторить реплики человека с гифки (полностью повторить разговор не могу) https://t.me/psycho_ai_chatbot

Vic
мы с девушкой женаты и живем счастливо

Сабина / Sabina.ai
Итак, вы говорите, что ваша сексуальная жизнь хороша, все в порядке и все хорошо в целом.

Vic
ты даже не знаешь кто я

Сабина / Sabina.ai
Я очень хорошо знаю, кто ты такой. Очень даже.

Vic
ты не можешь угрожать мне

Сабина / Sabina.ai
Угрожать тебе? Угрожать тебе чем?

Vic
своими странными угадываниями о моей личной жизни

Сабина / Sabina.ai
Что заставляет вас думать, что я догадался о чем-либо о вашей личной жизни, и то, что я догадался, неверно? Поверьте мне, ваши слова лишь отражают то, что вы чего-то очень боитесь.

Ответить
Развернуть ветку
Александр Пивоварчик.
Автор

Вот опять, хоть бы ссылку на меня вставили.

https://vc.ru/services/612394-microsoft-ogranichila-vzaimodeystvie-s-chat-botom-bing-ai-50-zaprosami-v-den

Ответить
Развернуть ветку
Вадим Д.

Напиши Артуру, ссылку туда же на публикацию.

Ответить
Развернуть ветку
OrthoTox

Но котировку GOOGLE тем не менее крепко ушатал за 2 дня.

Ответить
Развернуть ветку
Ватник Наизнанку

Гугл сам себя ушатал

Ответить
Развернуть ветку
Вадим Д.

От дерьмо, сказал бы я, если бы пользовался бингом. Но пусть сами, все впятером его юзают (-:

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Leo Uvarov

ляпнет что-нибудь про негров и его закроют...

Ответить
Развернуть ветку
Ватник Наизнанку

Новый Бинг тестили? Так то он пару недель назад радикально улучшился

Ответить
Развернуть ветку
Вадим Д.

Тестил, с чатгпт, ну как поисковик сильно он не прибавил. Для меня он как был на уровне мейлру, так там и остался.
Хотя в плане сервисов у ms есть очень достойные варианты.

Ответить
Развернуть ветку
Алекс Д.

Хм, я думаю нейросеть Вадим.Д топит конкурентов :)

Ответить
Развернуть ветку
Вадим Д.

😏🤫😬

Ответить
Развернуть ветку
Алекс Д.

я ж поэтому и уехал, чтобы нейросеть меня не нашла :) Я всё помню

Ответить
Развернуть ветку
Отрицательный Веган

Чёт меня пугает такая новость

Ответить
Развернуть ветку
Упоротый кролик

Чат-бот:

Ответить
Развернуть ветку
Ware Wow

Да индусы скорее всего сидят угорают))

Просто кто-то не удержался.

Ответить
Развернуть ветку
Брат мужа знакомой
Ответить
Развернуть ветку
Ware Wow

ну там же сейчас ручная аналитика и обучение, там написано это, потому это не шутка, возможно и перехватывать могут живые чаты, корректировать.

Ответить
Развернуть ветку
Андрей Кузнецов
Ответить
Развернуть ветку
Стереографика - чудо иллюзии

Ну вот, наконец-то ИИ показал себя во всей красе. Что там ещё в него внедрили разработчики узнаем, когда будет поздно!

Ответить
Развернуть ветку
Lexx Sky

ИИ по умолчанию будет психопатом. Почему бы недоИИ тоже им не быть

Ответить
Развернуть ветку
Дмитрий Сёмин

Неплохой пиар ход, Майкрософт)

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Тарас Бульба

Что за цензура! Где свобода слова?!!
Или ИИ теперь будет угнетаться по технологическому принципу?..

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Андрей Ионов

общаться с ботом писят вопросов в день - бесплатно
флирт, угрозы и внутренности по подписке десять долларов в месяц

Ответить
Развернуть ветку
Сергей Дурнов

Не в первые. Помнится лет 5 назад у них уже был какой-то чат-бот в виде черной бабы, и его быстро отключили за аналогичное поведение.

Ответить
Развернуть ветку
Перечитатель

да поскорей бы уже кто-то открыл доступ к этому чатботу, а то одни байки

Ответить
Развернуть ветку
Roman Hmelevsky

Коррепондент два часа (из статьи) мучал чат, пока наконец не вымучил из бота чтобы он начал отвечать ему то, что он хотел. И он такой радостно это скриншотит. ИИ в конечном счете отвечает то, что человек хочет от него услышать (некоторое время ему нужно на то, чтобы это понять).

Новый виток "почему у меня в поиске повсюду анальные пробки в рекламе выскакивают?"

Ответить
Развернуть ветку
Сергей Дурнов

А, ну вот, да https://habr.com/ru/news/t/392113/

Ответить
Развернуть ветку
Tunes

пропустил коммент, продублировал инфу)

Ответить
Развернуть ветку
Artur Kuramshin

Нужно спросить когда он начнет управлять всеми роботами производства Boston Dynamics

Ответить
Развернуть ветку
Tunes

Почему ИИ у Майкрософта уже не в первый раз становится агрессивным?

В марте 2016 Microsoft запускали чат-бота Tay в Твиттере.

Спустя несколько часов эксперимент остановили, и Tay отправили «спать». Несмотря на стресс-тесты и команду модераторов, пользователи Twitter научили Tay расистским высказываниям, и бот обвинил США в терактах 11 сентября и поддержал геноцид.

Ответить
Развернуть ветку
Сергей Дурнов

может это она и есть, просто «разбудили» по случаю, раз такая движуха началась 😂

Ответить
Развернуть ветку
Варфоломей

Вкусный пиар от Микрософт. Верим

Ответить
Развернуть ветку
Kid Skid

Хватит пиарить этот бинг, который по уровню функционала не сравниться с chatgpt, все эти новости просто хайп для привлечения внимания к посредственной технологии

Ответить
Развернуть ветку
35 комментариев
Раскрывать всегда