Эффект «невесомости»: как работа с LLM лишает нас интеллектуальной опоры

Вторая часть серии «Слова, которых нет»

Начало доступно по ссылке >>>

Знакомая картина: вы бьетесь над задачей, заходите в тупик и обращаетесь к LLM. ИИ выдает элегантное решение, вы копируете его, и всё работает. Но проходит час, коллега интересуется: «Слушай, как это реализовано? Почему выбран именно такой подход?», и вы осознаете, что не в силах ответить. Код работает, он интегрирован в проект, но внутренняя логика ускользает. Вы возвращаетесь к переписке в чате, пробегаете глазами текст — и возникает ощущение, что он чужой. Информация прошла сквозь вас, не оставив следа в сознании.

Это, пожалуй, самый распространенный, но при этом замалчиваемый побочный эффект взаимодействия с LLM. Пока все дискутируют о качестве генерации и экономии времени, упускается из виду фундаментальная проблема: мы начали путать получение готового ответа с процессом усвоения знаний. Пара минут общения с нейросетью избавляет от интеллектуального напряжения, а именно в нем, в этом усилии, и рождается понимание. Без преодоления трудностей мысли не за что уцепиться, и она проносится транзитом.

Мы погружаемся в состояние когнитивной невесомости. Космонавт на орбите легко перемещает тяжеловесные контейнеры, но из-за отсутствия гравитации лишается естественной обратной связи: мозг теряет ориентацию, перестает чувствовать вес объектов, не может рассчитать необходимое усилие, и в конечном итоге атрофируется даже физически. С ИИ мы попадаем в аналогичную ловушку — жонглируем сложными концепциями, не ощущая их «веса». Действие совершается, но из-за отсутствия сопротивления мы теряем «осязание» самой сути задачи, и она перестает откладываться в памяти.

К теме невесомости мы еще вернемся. А пока стоит затронуть другое важное наблюдение.

С одной стороны, любой пользователь LLM знает, как трудно противостоять её ответам: они безупречно структурированы, аргументированы и завершены. Психологически сложно отвергнуть такой контент — при отсутствии собственной сформированной позиции вы принимаете предложенное, отказываясь от самостоятельного формирования мысли.

С другой стороны, всех уже порядком утомил «нейрослоп» — текст, который отторгается инстинктивно. Даже если он грамматически безупречен, раздражение возникает быстрее, чем анализ, стоит только распознать характерный паттерн.

На первый взгляд, налицо противоречие: мы легко принимаем «отполированный» ответ, но отвергаем «нейрослоп», хотя генерируются они одной и той же технологией.

В ходе дискуссии Claude предложил взглянуть на ситуацию с позиции читателя. Когда вы выступаете в роли заказчика и решаете острую проблему, риск ошибки велик, и мозг подсознательно ищет повод принять предложенное решение. Если же вы лишь сторонний читатель, то ничем не рискуете, отвергая текст. Это логично, но не объясняет, почему мы распознаем «нейрослоп» почти мгновенно, до оценки содержания.

Мне кажется, причина глубже. В живом человеческом тексте всегда прослеживаются следы сопротивления: места, где автор сомневался, переписывал, выбирал формулировки, боролся с материалом. Эти шероховатости создают интеллектуальный рельеф. Читая такой текст, вы чувствуете, что автор мыслил, а не просто копировал выдачу чат-бота. Текст с рельефом — это путь с подъемами и поворотами. «Гладкий» текст — это идеально ровная поверхность, по которой взгляд скользит, не задерживаясь.

В нейрослопе раздражает отсутствие этого рельефа, некий эстетический вакуум. Мы мгновенно считываем отсутствие следов мыслительного усилия, даже если текст вполне грамотен.

След усилия — это и есть когнитивная зарубка: результат преодоления сопротивления материала. В тексте это выражается в рельефе, в мозге — в сформированном знании. Если усилия нет, материал проходит сквозь нас, не оставляя следа.

Чтобы лучше понять этот феномен, давайте обратимся к философской концепции двадцатипятилетней давности, которая сегодня обрела особую актуальность.

В 1998 году Энди Кларк и Дэвид Чалмерс представили статью «Расширенный разум» (The Extended Mind), где предложили смелую идею: разум человека не ограничен границами черепа. Всё, что функционально расширяет наши возможности — записи, инструменты, окружающая среда — становится частью нашего разума. Если блокнот с записями служит мне памятью, он функционально ею и является, независимо от того, где хранятся данные: в нейронах или на бумаге.

Классический пример Кларка и Чалмерса — мысленный эксперимент про Ингу и Отто, которые направляются в музей. Инга помнит адрес из головы. Отто, страдающий потерей памяти, сверяется со своей записной книжкой. По мнению авторов, оба выполняют идентичное когнитивное действие — извлечение информации. Разница лишь в том, что система Инги биологическая, а система Отто — внешняя, но функционально они равноценны.

Тогда эта идея была крайне дискуссионной, но сегодня она стала нормой жизни. Мы делегируем функции среде: календарь хранит графики, навигатор — пути, поисковик — факты. Кларк называл нас «прирожденными киборгами»: способность интегрировать внешние инструменты в мышление — наша эволюционная черта.

Однако Кларк и Чалмерс говорили о хранении и простых вычислениях. С появлением LLM мы впервые делегируем сам процесс вывода (reasoning) — то, что невозможно восстановить, просто обратившись к первоисточнику.

Здесь проходит тонкая грань. Телефонный номер в блокноте можно перечитать, факт в поиске — перепроверить по ссылке, уравнение — пересчитать. Когнитивный артефакт остается внешним и верифицируемым. Но сложный вывод LLM — синтез, аргументация — «переоткрыть» невозможно. Если вы не проделали эту мыслительную работу сами, у вас нет ни самой мысли, ни ключа к её восстановлению. Есть лишь текст ответа, который можно перечитывать, но мысли в нем для вас нет, ибо она рождается только в процессе создания.

Делегирование хранения поддерживает нашу компетентность, а делегирование процесса вывода — постепенно её замещает.

Интеллектуальная невесомость чревата отложенными последствиями. Космонавты на орбите теряют мышечную и костную массу, так как без постоянной нагрузки организм оптимизирует ресурсы, избавляясь от «лишнего».

Мышление устроено так же. Оно формировалось в условиях постоянного когнитивного сопротивления: нужно удерживать образы, связывать аргументы, бороться с забыванием, тренировать память. Без нагрузки способности начинают атрофироваться.

Долгосрочный риск невесомости в том, что в моменте мы теряем связь с задачей, а в перспективе — теряем способность мыслить самостоятельно.

Эта метафора подсказывает и решение. Космос требует новых видов тренировок. Космонавты используют специальные тренажеры с эластичной нагрузкой, чтобы компенсировать отсутствие гравитации. Нам нужна аналогичная когнитивная дисциплина — новая культура работы в условиях доступности ИИ.

Раньше умственные усилия — чтение, письмо, борьба с «белым листом» — были естественной частью работы. Теперь они стали опциональными, и если их избегать, соответствующие способности угасают.

Эмпирические данные подтверждают этот риск. Исследование Михаэля Герлиха (2025) показало прямую корреляцию между частотой использования ИИ и снижением критического мышления. Особенно тревожны результаты у молодежи: они сильнее зависят от ИИ и менее способны к критическому анализу. Это указывает на долгосрочный след: если делегировать reasoning слишком рано, фундамент для собственного мышления просто не успевает сформироваться.

Параллельно Microsoft Research на конференции CHI 2025 представили результаты опроса профессионалов интеллектуального труда: аналитиков, разработчиков, консультантов. У частых пользователей ИИ зафиксировано самоотчетное снижение когнитивных усилий и уверенности в своих силах. Любопытно, что эффект сильнее у тех, кто безоговорочно доверяет ответам ИИ, и слабее у тех, кто привык перепроверять выводы.

Другая работа (Stadler et al, 2024) четко сформулировала суть: «cognitive ease at a cost» — когнитивная легкость, за которую мы платим снижением глубины рассуждений. Когнитивный долг здесь — лишь симптом, тогда как истинная проблема — атрофия способностей из-за отсутствия практики.

Сюда же относится и «сжатие цикла решений». Работа без LLM включает паузы — время на раздумья, кофе, обсуждения, где мозг фоново обрабатывает информацию. ИИ уничтожает эти микропаузы, переключая человека в режим непрерывной оценки. Мы теряем время на глубокую внутреннюю переработку данных.

Отсюда вытекает третье понятие: «Знакомство-без-встречи». Состояние, когда информация получена, но «встречи» с ней не произошло: не было сопротивления, не было озарения, не было личного труда понимания. Знание лежит «в кармане» как чужой предмет — оно есть, но функционально вы им не владеете и не сможете воспроизвести, если источник исчезнет.

И здесь возникает самый серьезный риск: иллюзия компетентности.

Работая с ИИ, я ощущаю себя на высоком уровне — решаю сложные задачи, обсуждаю глубокие темы. Это ощущение реально, но оно — продукт совместной работы моей системы и ИИ. Если LLM исчезнет, я не вернусь в точку «до LLM». Я вернусь к себе, лишенному части навыков, которые атрофировались за время работы с «костылями». Иллюзия компетентности — это активный самообман, который не осознаешь до момента, когда обстоятельства вынудят действовать в одиночку.

У LLM нет «ставки» в споре, её несогласие ничего не стоит. У человека же возникает иллюзорная уверенность, не подкрепленная личным усилием. Это два полюса одного дефицита — отсутствия веса действия для совершающего его субъекта.

На практике это требует перехода к «когнитивной гимнастике»: намеренному созданию сопротивления там, где оно исчезло. LLM не должна быть первым и единственным звеном — это ведет к замещению компетентности. Она должна быть ресурсом, к которому обращаются после самостоятельного шага. Грань проходит там, где инициируется мысль и принимается ответственность за неё.

Эксперт и новичок находятся в разных позициях. У эксперта есть фундамент — годы практики. Он работает с LLM как опытный пилот с автопилотом. Новичок же, начавший обучение с ИИ, фундамента не имеет. Получается парадокс: LLM наиболее полезна тем, кто в ней меньше всего нуждается, и опасна для тех, кто на неё полагается полностью.

Эффект масштабируется и на организации. В командах, массово внедряющих ИИ, постепенно вымывается экспертиза. Через пару лет «AI-driven» команда на бумаге будет выглядеть квалифицированной, а на практике столкнется с глубокими пробелами там, где раньше жила инженерная мысль.

Поддержание живой технической культуры сегодня требует осознанных усилий, сравнимых с тренировками космонавтов. На индивидуальном уровне — когнитивная гимнастика, на командном — практики работы без модели. Человек в новой среде нуждается в новых видах нагрузки, чтобы не перестать быть человеком.

Эта статья сама по себе — пример сказанного. Она создавалась в диалоге с ИИ, но прошла через восемь итераций переписывания. От исходного, приемлемого, «гладкого» варианта не осталось ничего. Я сознательно не позволил себе ограничиться «и так сойдет!», потому что знаю: если разучиться писать самому, потом будет больно.

В следующем материале мы пойдем дальше и обсудим то, что рождается в этом диалоге и не помещается ни в одну голову. О словах, которых нет ни в одном языке, и о том, почему наша попытка их создать обрела именно русский культурный код.

Термин «когнитивная зарубка» и идея «следа сопротивления» — результат совместного поиска подходящего русского эквивалента. Концепт «знакомства-без-встречи» — от Claude. Связь с теорией «расширенного разума» Кларка и Чалмерса — моя, дополненная уточнением границы между хранением и выводом. Метафора невесомости — общая, развитая в ходе обсуждения сопротивления как обязательного условия мышления. Образ с космонавтом, контейнером и потерей ориентации — авторский, как и концепция иллюзии компетентности, основанная на атрофии навыков.

 

Источник

Читайте также