Искусственный интеллект и плагиат в научной сфере: Google Scholar заполнили поддельные исследования

Новая работа исследователей продемонстрировала тревожную тенденцию: искусственный интеллект вносит хаос в онлайн-среду научной информации, распространяя генерированные научные публикации.

Команда учёных изучила количество статей с признаками искусственной генерации текста в Google Scholar — широко используемой академической поисковой платформе. Основное внимание было уделено злоупотреблению генеративными предобученными трансформерами (GPT), представляющими собой крупные языковые модели, включая известные системы, такие как ChatGPT от OpenAI.

Искусственный интеллект и плагиат в научной сфере: Google Scholar заполнили поддельные исследования
Источник: University of Borås

Анализ выборки научных публикаций в Google Scholar показал, что две трети рассмотренных работ как минимум частично были созданы с использованием GPT, без раскрытия этого факта. Из числа текстов, подготовленных GPT, 14,5% относились к теме здравоохранения, 19,5% — к окружающей среде, а 23% — к компьютерной технике.

«Угроза, которую мы называем «манипуляцией с доказательствами», значительно увеличивается, когда исследования, созданные ИИ, распространяются в поисковых системах», — отметил Бьёрн Экстрём, соавтор исследования из Шведской школы библиотечно-информационных наук.

Учёные определили два основных риска. Во-первых, переизбыток сфабрикованных «исследований» может подорвать цельность научных данных. Во-вторых, растёт риск принятия внушительно выглядящего научного контента, созданного ИИ, который оптимизирован для поиска в открытых академических системах.

«Если мы не в состоянии удостовериться в подлинности исследований, которые изучаем, мы рискуем принимать решения на основе ошибочной информации», — подчеркнула Ютта Хайдер, соавтор исследования.

Проблема усугубляется и тем, что тексты, созданные с помощью ИИ, были найдены как в рецензируемых публикациях, так и в менее проверенных материалах, указывая на загрязнение всей онлайн-системы научной информации.

Эксперты подчеркивают необходимость разработки защитных мер в рецензируемых журналах и академических поисковых системах, чтобы технологии ИИ способствовали научным открытиям, а не препятствовали им.

 

Источник: iXBT

Читайте также