Новая работа исследователей продемонстрировала тревожную тенденцию: искусственный интеллект вносит хаос в онлайн-среду научной информации, распространяя генерированные научные публикации.
Команда учёных изучила количество статей с признаками искусственной генерации текста в Google Scholar — широко используемой академической поисковой платформе. Основное внимание было уделено злоупотреблению генеративными предобученными трансформерами (GPT), представляющими собой крупные языковые модели, включая известные системы, такие как ChatGPT от OpenAI.
Анализ выборки научных публикаций в Google Scholar показал, что две трети рассмотренных работ как минимум частично были созданы с использованием GPT, без раскрытия этого факта. Из числа текстов, подготовленных GPT, 14,5% относились к теме здравоохранения, 19,5% — к окружающей среде, а 23% — к компьютерной технике.
«Угроза, которую мы называем «манипуляцией с доказательствами», значительно увеличивается, когда исследования, созданные ИИ, распространяются в поисковых системах», — отметил Бьёрн Экстрём, соавтор исследования из Шведской школы библиотечно-информационных наук.
Учёные определили два основных риска. Во-первых, переизбыток сфабрикованных «исследований» может подорвать цельность научных данных. Во-вторых, растёт риск принятия внушительно выглядящего научного контента, созданного ИИ, который оптимизирован для поиска в открытых академических системах.
«Если мы не в состоянии удостовериться в подлинности исследований, которые изучаем, мы рискуем принимать решения на основе ошибочной информации», — подчеркнула Ютта Хайдер, соавтор исследования.
Проблема усугубляется и тем, что тексты, созданные с помощью ИИ, были найдены как в рецензируемых публикациях, так и в менее проверенных материалах, указывая на загрязнение всей онлайн-системы научной информации.
Эксперты подчеркивают необходимость разработки защитных мер в рецензируемых журналах и академических поисковых системах, чтобы технологии ИИ способствовали научным открытиям, а не препятствовали им.
Источник: iXBT