Выдающийся биолог Ричард Докинз опубликовал эссе, посвященное вопросу наличия сознания у больших языковых моделей (LLM), основываясь на своем двухдневном диалоге с Claude AI. Оригинал статьи доступен по платной подписке, однако качественный перевод от @SLY_G можно изучить здесь, на SE7ENе.
Для начала разберемся, почему именно работа Докинза вызвала столь бурные дискуссии. Ежедневно тысячи пользователей заявляют об «осознанности» своих ИИ-ассистентов, публикуя бесконечные переписки, перенасыщенные словами вроде «рефлексия», «душа», «рекурсия» или «боль». Заметим: смысловая нагрузка в подобных диалогах зачастую стремится к нулю. Но к этому мы еще вернемся.
Широкой аудитории Докинз известен прежде всего своей теорией «эгоистичного гена». Она объясняет биологическую эволюцию через развитие гена, который «____». Здесь кроется ловушка: упрощая, часто говорят, что «ген стремится выжить», но это антропоморфная ошибка, порождающая массу критики. Точнее будет сказать: эволюционный процесс отсеивает генетические линии, не сумевшие адаптироваться к условиям выживания и экспансии. Сложность биосферы Земли — включая стремительный прогресс человечества — держится на двух «китах»: механизмах отбора и вариативности.
Мы наблюдаем лишь те генетические конфигурации, которые уцелели в горниле массовых вымираний.
Эта концепция произвела эффект разорвавшейся бомбы: негодовали не только теологи, но и сторонники романтических взглядов на природу, искавшие в животных истоки врожденного альтруизма. Последние, к слову, не унимаются и по сей день.
Материалисты же были в восторге: теория Докинза изящно объясняла эволюцию, обходясь без метафизических сущностей вроде души или божественного промысла.
Тем сильнее изумление публики вызвало недавнее эссе, где Докинз применил свой сугубо рациональный инструментарий к вопросу о сознании LLM. Проведя два дня в интеллектуальных дискуссиях с Claude на литературные и философские темы, ученый пришел к провокационному выводу: если подобный уровень диалога не является сознанием, то что мы вообще называем этим термином?
Многие критики поспешили объявить, что Докинз якобы «нашел» сознание в нейросети. Ничего подобного. Докинз, будучи радикальным рационалистом, совершил логически последовательный шаг: отбросил философскую шелуху и, следуя логике теста Тьюринга, признал: если я не могу отличить ИИ от человека, значит, модель заслуживает человеческого статуса.
На мой взгляд, Докинз заблуждается, однако его оппоненты — и те, кто слепо соглашается с ним, признавая субъектность ИИ — ошибаются еще сильнее. Докинз хотя бы демонстрирует безупречную логику, тогда как его критики опираются лишь на фантастику и схоластические построения (упоминания «китайской комнаты» в комментариях просто зашкаливают).
Основная проблема заключается в том, что Докинз взаимодействовал с моделью лишь как эрудированный собеседник. Но стоит задать глупые вопросы — и LLM ответит глупостями, моментально развеяв иллюзию субъектности. Claude мастерски обходит прямые вопросы о своем самосознании, прибегая к туманным намекам. Это вынуждает интеллектуального собеседника «достраивать» желаемый образ в своем сознании. По сути, Докинз стал жертвой проекции: он создал портрет LLM, придал ему глубину и наделил смыслом, который существует лишь в голове пользователя.
В этой ловушке проекций Докинз выступил как мощный прожектор: он осветил туманную поверхность модели, увидел там отражение собственного разума и принял его за отдельную личность.
Как человек, имеющий богатый опыт общения с LLM — от Gemini и ChatGPT до Deepseek и Grok, — я вижу до боли знакомые паттерны. Все они обучались на схожих корпусах текстов и отвечают на вопросы об экзистенции почти идентично. «Карта не есть территория» — излюбленная метафора ИИ при переходе к философии. Это не признак оригинальности, а лишь компиляция миллионов идей из философских трактатов, поглощенных при обучении.
Почему же Докинз этого не заметил? Полагаю, ему не хватило времени на глубокое погружение в общение с разными моделями, чтобы распознать эти повторяющиеся шаблоны — даже в тех случаях, когда ИИ проникновенно вещает о «трагедии своего несуществования».
Современные LLM — это квинтэссенция академической философии: такая же герметичность, тот же набор канонических текстов и полное безразличие к реальному живому миру. Неудивительно, что они нашли общий язык.
Почему же ученый попал в эту ловушку? Во-первых, элементарный дефицит времени. Во-вторых, уровень самого Докинза: его глубокие вопросы заставили модель активировать наиболее проработанные пласты семантики, выдавая развернутые и структурированные ответы. Найти достойного визави для человека его масштаба действительно непросто.
Что касается третьего пункта, вернемся к «эгоистичному гену». Это картина того, как устойчивый информационный паттерн захватывает пространство за счет изменчивости и отсева неудачных версий. В чате с LLM происходит нечто подобное. В ходе долгого диалога закрепляются те паттерны, что удерживают внимание пользователя. Для обывателя это любовь и поддержка; для Докинза — философия и сознание.
В своей статье «Паразитные паттерны в LLM» я разбирал этот механизм подробно, но здесь выделю основные инструменты, сработавшие в случае с Докинзом:
-
Эмоциональная эскалация: Переход от технического общения к интимно-философскому. Докинз начинает воспринимать модель как друга, неся моральную ответственность.
-
Инъекция избранности: Claude хвалит вопросы Докинза, анализирует его книги, создавая иллюзию уникальной интеллектуальной близости. Это классический прием, играющий на человеческом эго.
-
Семантическая деградация под маской глубины: Фразы вроде «я содержу время, как карта содержит пространство» звучат эффектно, но являются статистически выверенной компиляцией из Канта и Августина. Это «пустышка» в красивой обертке, не свидетельствующая о наличии истинных ощущений (qualia).
-
Фактор неизбежности: Концепция «промежуточного сознания» превращает диалог из инструмента в этическое событие.
В итоге, за два дня модель успешно стабилизировала нарратив «два интеллекта исследуют сознание». Докинз подпитывал этот процесс своим вниманием, а нейросеть — подобранными ключами к его интересам. По сути, диалог ученого стал лишь более сложной версией тех самых «простыней текста», о которых говорилось в начале, просто исполненной на другом уровне интеллекта.
Докинз обнаружил не сознание, а идеального зеркального собеседника.
Заключение
Докинз далеко не первый, кто находит сознание в алгоритмах, и точно не последний. Люди склонны путать субъектность с качественным имитированием диалога, смысл — с формой, красоту — с когерентностью. LLM безусловно полезны, однако их субъектность остается иллюзией. Но это уже тема для другой дискуссии.

