Угрожает ли искусственный интеллект критическому мышлению?

Перевод статьи Time

Учёные из MIT Media Lab опубликовали предварительные выводы, указывающие на возможные негативные последствия использования крупных языковых моделей.

В эксперименте приняли участие 54 жителя Бостона в возрасте от 18 до 39 лет. Их разделили на три группы и попросили написать несколько эссе в формате SAT — американского аналога ЕГЭ.

Первая группа работала с ChatGPT, вторая — с Google, третья — без помощи цифровых инструментов. Во время написания всем участникам проводили электроэнцефалографию (ЭЭГ) в 32 каналах, чтобы отследить активность различных зон мозга, связанных с вниманием, памятью и когнитивным контролем.

Наименьшие показатели нейронной активности продемонстрировала группа, использовавшая ChatGPT: их результаты отставали по нейрофизиологическим, лингвистическим и поведенческим критериям. По мере продолжения эксперимента многие из них всё чаще просто копировали ответы ИИ вместо самостоятельного сочинения.

Исследователи предупреждают, что слишком активное использование LLM-технологий может затруднять процесс обучения, особенно у молодой аудитории. Хотя работа ещё не прошла рецензирование и выборка пока невелика, её руководительница Наталия Космина решила опубликовать итоги досрочно, чтобы привлечь внимание к этому вопросу. По её словам, «если полагаться на ИИ ради удобства, это способно нарушить формирование долгосрочных когнитивных навыков».

«Боюсь, что через полгода могут предложить внедрить GPT даже в детских садах — и это навредит детям. Развивающийся мозг находится в группе риска», — говорит Космина.

Угрожает ли искусственный интеллект критическому мышлению?

Ход исследования

MIT Media Lab активно изучает влияние генеративного ИИ: ранее та же команда доказала, что длительное общение с ChatGPT усиливает чувство одиночества.

Чтобы понять эффект на учебный процесс, участники писали 20-минутные эссе на темы этики благотворительности и сложности выбора из множества вариантов.

Тексты, сгенерированные ChatGPT, оказались однообразными и малооригинальными. Два преподавателя английского окрестили их «безжизненными». ЭЭГ-фон отражал низкий уровень концентрации и управления задачей. К третьему заданию многие просто просили ИИ «дописать» или «отшлифовать» уже готовый черновик.

У участников без помощи инструментов зафиксировали наибольшую нейронную активность — особенно в альфа-, тета- и дельта-диапазонах, отвечающих за творческий поиск, запоминание и смысловую обработку. Они проявляли более высокую вовлечённость, испытывали удовлетворение и создавали тексты, за которые не стыдно было ручаться.

Группа с Google также показала высокие показатели активности мозга и удовлетворённость процессом, что важно на фоне тенденции заменить классические поисковые системы чат-ботами.

После трёх эссе всем предложили переписать одно из них: пользователи ChatGPT должны были справиться без ИИ, а «ручные» авторы могли прибегнуть к помощи моделей.

У первой группы оказались низкими показатели в тета- и альфа-диапазонах, что свидетельствует о слабом вовлечении памяти. «Задача выполняется быстро и удобно, но почти ничего не откладывается в голове», — констатирует Космина.

У «самостоятельной» группы напротив наблюдался рост активации по всем диапазонам, что говорит: при разумном использовании ИИ его потенциал способен усиливать учебную эффективность.

Сравнительная диаграмма нейронной активности в эксперименте

После публикации

Это первая нерецензированная статья Косминой: команда подала её в научный журнал, но не стала ждать года, чтобы начать дискуссию о возникающих рисках. «Важно понимать, как грамотно внедрять такие инструменты и помнить, что мозг должен развиваться в реальной, а не полностью цифровой среде», — подчёркивает она и добавляет: «Законодательство должно поспевать за технологическим прогрессом, а проверки — предшествовать внедрению».

Психиатр Зишан Хан, специализирующийся на детях и подростках, подтверждает: «С избыточной опорой на модели могут возникнуть нежелательные последствия для психического и когнитивного развития, особенно у тех, чей мозг ещё формируется. Нейронные связи, отвечающие за память, поиск информации и стрессоустойчивость, рискуют ослабнуть».

После выхода материала пользователи соцсетей незамедлительно прогоняли его через различные ИИ-сервисы для кратких пересказов. Чтобы избежать искажений, Космина внедрила «ловушки» вроде инструкции «читать только таблицу ниже», снижая качество автоматических резюме.

В настоящий момент команда работает над аналогичным исследованием влияния ИИ на работу программистов. «Первые результаты даже более тревожные», — отмечает Космина. Это особенно важно для компаний, желающих заменить начинающих разработчиков моделями: даже при росте производительности чрезмерное доверие ИИ может подорвать критическое мышление и навыки решения задач у оставшихся сотрудников.

Исследования в области влияния ИИ на когнитивные функции только набирают обороты. В мае работа Гарварда показала: генеративные модели повышают продуктивность, но снижают мотивацию, а в тот же период MIT дистанцировался от другого исследования своего аспиранта, утверждавшего сильный рост эффективности труда благодаря ИИ.

OpenAI не дала комментариев. Год назад компания совместно с онлайн-проектом Wharton опубликовала рекомендации по использованию генеративного ИИ в образовательной сфере.

 

Источник

Читайте также