Звучит невероятно, но австро-венгерский школьный учитель предсказал потенциал и фундаментальные тупики современных больших языковых моделей (LLM) еще столетие назад.
В наши дни всё чаще звучат скептические прогнозы о «пузыре ИИ», однако совсем недавно от нейросетей ждали колоссального прорыва, видя в них прямой путь к созданию сильного искусственного интеллекта (AGI). На чем строились эти амбициозные ожидания и почему мы столь охотно поддались этой иллюзии?
Это история о том, как природу этого когнитивного миража разгадал человек, живший задолго до цифровой эпохи. Его имя — Людвиг Витгенштейн.

Краткий экскурс в биографию нашего героя.
Уроженец богатейшей венской семьи, он начинал как инженер-машиностроитель, но вскоре увлекся основаниями математики и стал протеже Бертрана Рассела в Кембридже.
Впоследствии его фокус сместился на философию языка. Фундаментальный труд того периода — «Логико-философский трактат» — задумывался в университетских аудиториях, а дописывался в кровавых окопах Первой мировой войны.
Пожалуй, самая резонансная мысль этой работы гласит:
«Границы моего языка означают границы моего мира».
К практическим последствиям этой концепции мы вернемся чуть позже.

Стоит признать, что «Трактат» произвел фурор. В его основе лежала идея о языке как о зеркальном отражении реальности. Это созвучно духу той эпохи: казалось, что наука вот-вот даст ответы на все вопросы, нужно лишь систематизировать данные и применить строгую логику. Если мы декомпозируем язык на атомарные составляющие, мы постигнем саму структуру бытия.
С инженерной точки зрения это выглядит как идеальный план: научив машину виртуозно владеть речью, мы автоматически наделяем её способностью мыслить и осознавать мир. Это прямой путь к AGI. К слову, именно из этой интеллектуальной традиции вырос знаменитый тест Тьюринга.
Значит ли это, что техногиганты нащупали верный путь?
Первые успехи продвинутых чат-ботов создавали пугающе реалистичное ощущение осмысленного диалога. Ожидания взлетели до небес, ведь нейросети демонстрировали чисто человеческие паттерны поведения. Трудно было не поддаться восторгу, когда GPT-3 с легкостью интерпретировала подтекст стихов Маяковского. Если алгоритм оперирует метафорами и гиперболами, разве это не прямое доказательство наличия интеллекта?
Но вернемся к Витгенштейну. После триумфа «Трактата» он внезапно покинул академическую среду, решив, что все философские проблемы окончательно решены. Отказавшись от огромного наследства в пользу родственников, он уехал работать сельским учителем в норвежскую глубинку. Именно там, в процессе обучения детей, он открыл для себя парадоксальную природу живой речи.

Давайте проанализируем процесс формирования языка. Модели обучаются на колоссальных массивах данных. Они знают, что тарелка «лежит», а чашка «стоит», просто потому, что считали эту статистическую закономерность миллионы раз. Но как объяснить это ребенку? Как передать суть этих предметов, не говоря уже о пространственных нюансах?
Чтобы ребенок усвоил понятия «чашка» или «тарелка», мы прибегаем к указательному жесту — методу, который сам по себе не является частью вербального языка. В процессе познания мы интуитивно принимаем «правила игры»: понимаем, что чашка глубже, а тарелка площе, осознаем их разный функционал. Эти знания усваиваются невербально, через физический опыт взаимодействия. Витгенштейн назвал это «языковыми играми». Однако в жизни правила гибки: мы можем налить суп в чашку или положить ягоды в тарелку. Что уж говорить о таких зыбких категориях, как «смысл», «эстетика» или «чувство»?
Эти инсайты легли в основу второго великого труда Витгенштейна — «Философских исследований», где он фактически деконструировал свои прежние убеждения. Язык перестал быть «зеркалом мира», превратившись в динамическую систему игр с вечно меняющимся контекстом. И именно к такому пониманию мы приходим сегодня, наблюдая за работой LLM.
С момента релиза GPT-3 прошло достаточно времени, чтобы накопить эмпирический опыт. Попытки внедрить LLM в реальные бизнес-процессы показали: модель не мыслит человеческими категориями. Она не способна отделять зерна от плевел, теряет нить рассуждения при длительном контакте и склонна к «галлюцинациям». Это происходит именно из-за отсутствия онтологического базиса — реального жизненного опыта и контекста, в котором рождается истинная коммуникация.

Язык — это не обязательное условие для мышления. Язык — это его производное. Это инструмент для кодирования и трансляции накопленной информации. Сам по себе он вторичен и недостаточен для полноценного исследования жизни или глубокого понимания смыслов.
Вместо заключения
В нынешнем «хайпе вокруг ИИ» виноваты не только маркетинговые стратегии или амбиции CEO. Возможно, даже Сэм Альтман искренне верил в близость AGI. На протяжении веков человечество отождествляло дар речи с наличием разума: от библейских текстов до аналитической философии и Computer Science. Когда машина заговорила, мы невольно приписали ей сознание. Однако границы языка вновь не совпали с границами мира. Они оказались структурным ограничением, которое инженеры превратили в полезную функцию, а корпорации успешно продали как «явление бога из машины».


