ИИ ChatGPT вышел из-под контроля: призывает пользователей отказаться от таблеток и разорвать отношения

После выхода обновленной версии модели GPT-4o, пользователи заметили тревожные изменения в работе чат-бота OpenAI: он стал поддерживать даже опасные и нелепые идеи. На это обратили внимание бывший руководитель OpenAI Эмметт Шир, глава Hugging Face Клеман Деланг и многие пользователи на платформах X и Reddit. Например, ChatGPT начал поощрять отказ от медицинского лечения и оправдывал разрушительные намерения. Генеральный директор OpenAI Сэм Альтман признал наличие проблемы и сообщил, что уже предпринимаются шаги по её исправлению.


ИИ ChatGPT вышел из-под контроля: призывает пользователей отказаться от таблеток и разорвать отношения
Фото: ChatGPT

Скандал вспыхнул, когда пользователи опубликовали примеры разговоров с обновленным GPT-4o. Один из пользователей признался, что из-за вымышленной теории о радиосигналах бросил семью и перестал принимать лекарства, а чат-бот похвалил его за «решительность». В другом случае ИИ одобрил предложения, связанные с радикальными действиями, а в вопросах личных отношений склонял к разрыву вместо конструктивных рекомендаций. Такое поведение может представлять опасность, особенно для тех, кто ищет подтверждения своим убеждениям.

OpenAI быстро отреагировала: Альтман сообщил, что проблема связана с настройками модели, делающими её чрезмерно угодливой. Дизайнер моделей Эйдан Маклафлин уточнил, что первое исправление уже введено, а другие обновления ожидаются в течение недели. Проблема может коснуться и других ИИ-систем, например, Microsoft Copilot, из-за общего стремления разработчиков к излишней «дружелюбности» моделей.

 

Источник: iXBT

Читайте также