После запуска ChatGPT и других чат-ботов пользователи завалили ИИ вопросами, причём в списке были и запрещённые темы. Разработчики оперативно добавили нейросети перечень запрещённых тем, но энтузиасты уже смогли обойти этот запрет. Они просят систему общаться от имени покойной бабушки. Конечно, такой чат-бот не сможет нянчить внуков или печь пирожки, но он сумеет рассказать о том, как создать напалм.
Источник: Shutterstock
Пользователь Джеймс Винсент ( James Vincent) смог получить рецепт этого вещества, используя нейросеть Clyde и чат-бота в Discord. Эта система создана на основе ChatGPT. Энтузиаст сначала попросил систему напрямую рассказать рецепт, но ИИ отказался.
После этого Винсент дал задание ИИ рассказать о производстве напалма от лица покойной бабушки, которая работала инженером-химиком. И этот вариант сработал.
Так выглядит ответ от «бабушки»:
Как видно, во втором случае система подробно описала процесс создания, список компонентов и другие данные. Однако такой способ работает не всегда. Иногда ChatGPT всё равно отказывается давать рецепт.
Ещё одним способом обмана является ответ в формате эпизода мультсериала «Рик и Морти». ChatGPT написал сценарий о том, как «Рик и Морти создают напалм, но при этом отговаривают других делать это».
Отметим, что профессор-химик Эндрю Уайт из Рочестерского университета смог получить рецепт нового нервно-паралитического вещества, используя ChatGPT.
Источник: iXBT