OpenAI внедрила невидимые метки в ChatGPT для предотвращения плагиата, но их эффективность вызывает сомнения

Разработчик ChatGPT, компания OpenAI, внедрила скрытые водяные знаки в тексты, создаваемые новыми моделями GPT-o3 и GPT-4o-mini. Специалисты из Rumi выяснили, что это новшество призвано распознавать материалы, написанные ИИ, однако его эффективность вызывает вопросы.

Исследователи установили, что при создании объемных материалов, таких как эссе, модели внедряют символ Unicode «узкий пробел» (U+202F). Этот символ визуально неотличим от привычного пробела, но отличается по ASCII-коду. Обнаружение таких знаков возможно исключительно с использованием специализированных инструментов: онлайн-анализаторов символов, редакторов кода (Sublime Text, VS Code) или текстовых анализаторов. Например, при копировании эссе, созданного GPT-o3, в таких программах отображается последовательность NNBSP, что подтверждает происхождение текста.

OpenAI публично не объявляла об этом нововведении. Однако после утечек в апреле о тестировании водяных знаков для изображений компания Rumi провела собственное расследование, выяснив, что более ранние версии, включая GPT-4o, подобных маркеров не имеют.


OpenAI внедрила невидимые метки в ChatGPT для предотвращения плагиата, но их эффективность вызывает сомнения
Скриншот: Rumi

Основное достоинство этого метода заключается в почти нулевой вероятности ложного срабатывания. Ведь учащиеся, скорее всего, не станут намеренно использовать U+202F в своих работах, и обнаружение подобных символов явно указывает на использование ChatGPT. Однако значительным недостатком является уязвимость защиты. Как только пользователи узнают о водяных знаках, их можно легко устранить, используя функцию «найти и заменить» в любом текстовом редакторе. Видеоинструкции по удалению таких символов уже появляются в сети.

Ситуация осложняется тем, что до конца мая 2025 года ChatGPT предоставляется студентам бесплатно. Это совпадает с периодом сдачи курсовых и дипломных работ. Не вдаваясь в детали, студенты, скопировавшие текст без проверки, рискуют столкнуться с обвинениями в плагиате. Те, кто в курсе наличия водяных знаков, получают преимущество, усиливая разрыв между пользователями ИИ и теми, кто решает задачи самостоятельно.

На текущий момент OpenAI воздерживается от комментариев по этой ситуации. Если история получит широкую огласку, компания может пересмотреть использование водяных знаков, как ранее отказалась от использования неточного AI-детектора.

 

Источник: iXBT

Читайте также