
…И при этом наглядно демонстрирует политику двойных стандартов.
Anthropic — компания, известная своей бескомпромиссной позицией по отношению к КНР и сама активно эксплуатировавшая открытые источники для обучения своих нейросетей, — теперь обвиняет коллег по цеху в заимствовании собственных разработок. Ирония ситуации заслуживает отдельного внимания.
Эти события не только подтверждают догадки о том, как китайские разработчики умудряются сокращать технологический разрыв при дефиците ресурсов, но и ставят под сомнение реальность того самого «технологического превосходства» США, о котором так много говорят.
В данном материале мы проанализируем механизмы дистилляции — ключевого инструмента в эволюции ИИ и главной «хитрости» Китая, позволяющей ему не отставать от лидеров рынка. Кроме того, мы раскроем истинные мотивы Anthropic, которые имеют мало общего с заботой о прогрессе.
В индустрии искусственного интеллекта всё снова оказывается не тем, чем кажется на первый взгляд, а корень текущего конфликта лежит вовсе не в плоскости технологий.
Торжество лицемерия
Anthropic выступила с резким демаршем, уличив три крупнейшие китайские лаборатории — DeepSeek, Minimax и Moonshot — в «дистилляции» ответов модели Claude для совершенствования собственных систем.
Организация, чей бизнес буквально выстроен на использовании чужого контента и отягощен многомиллиардными исками от правообладателей, внезапно возмутилась тем, что её методы применили против неё же. Поразительная самонадеянность.
Однако, оставив в стороне очевидную двуличность, давайте разберемся в сути произошедшего, методологии процесса и реальных причинах негодования Anthropic. Спойлер: дело не в краже данных, а в элементарном выживании компании.
В чем же заключаются официальные претензии?
Обучение через имитацию: как копируется опыт
Если говорить кратко, Anthropic заявляет об обнаружении масштабных кампаний по дистилляции «промышленного уровня». Целью этих китайских лабораторий было извлечение ответов Claude для тонкой настройки своих моделей.
По версии Anthropic, «тройка игроков» совершила более 16 миллионов обращений к Claude через сеть из 24 000 фейковых аккаунтов, используя прокси-серверы для маскировки локации и обхода систем безопасности.
Что именно интересовало каждую из сторон?
DeepSeek, по данным отчета, провела сравнительно скромную кампанию (около 150 000 запросов). Их фокус был сосредоточен на сложных логических рассуждениях, оценке ответов по заданным критериям и генерации «свободных от цензуры» вариантов на политически чувствительные темы. Фактически Claude использовался как эталонная модель для обучения с подкреплением.
Moonshot AI (разработчики Kimi) проявили больший интерес — более 3,4 миллиона взаимодействий. Их целями стали: агентное мышление, навыки работы с внешним инструментарием, программирование, анализ данных, а также компьютерное зрение и управление интерфейсом ПК.
MiniMax стала лидером по объемам — более 13 миллионов запросов. Основное внимание уделялось написанию кода ИИ-агентами, оркестрации процессов и использованию инструментов.
Но что за всем этим стоит с технической точки зрения?
Давайте детально разберем концепцию дистилляции и поймем, почему она стала критически важной для выживания китайского ИТ-сектора (и почему она не менее важна для США).
Механика дистилляции: от копирования к обучению
Дистилляция — это фундаментальное понятие, которое часто интерпретируется неверно. Важно различать её виды, чтобы понимать суть прогресса в индустрии.
Большие языковые модели (LLM) обучаются двумя основными путями: через имитацию и через подкрепление.
-
Имитация подразумевает дословное или стилистическое копирование текста. Это может быть как этап предобучения на гигантских массивах данных, так и контролируемое дообучение (SFT), где поведение модели корректируется на специально подготовленных примерах.
-
Подкрепление (RL) — это метод проб и ошибок, где правильные решения и эффективные паттерны поощряются алгоритмом.
Традиционно источником эталона служат человеческие данные. Однако всё чаще роль учителя берет на себя другой ИИ. Это и есть дистилляция — процесс «извлечения» знаний из более продвинутой модели. Её принято делить на «жесткую» и «мягкую».
Жесткая дистилляция активно применяется лабораториями для оптимизации расходов на эксплуатацию (инференс). Суть проста: обучается колоссальная по мощности модель-«учитель», которую слишком дорого предоставлять массовому пользователю. Затем её знания передаются компактным моделям-«ученикам», которые копируют поведение наставника, но работают гораздо быстрее и дешевле.
Несмотря на стереотипы, сам запуск ИИ приносит прибыль. Убытки компаний генерируются операционными затратами: колоссальными зарплатами и расходами на исследования (R&D).
Жесткая дистилляция — ресурсоемкий процесс. Она требует оценки вероятности не только правильного ответа, но и распределения всех возможных вариантов слов у обеих моделей одновременно. Это заставляет «ученика» полностью подражать логике «учителя», что требует единого словаря токенов и огромных вычислительных затрат.
Такой метод оправдан лишь тогда, когда нужно создать мини-версию собственного флагмана для экономии ресурсов.
Существует и более продвинутый подход, который детально описали эксперты из Thinking Machine Labs.
Его идея заключается в том, что «ученик» генерирует варианты решений самостоятельно, а «учитель» лишь проверяет их. В отличие от простого копирования, здесь модель активно ищет пути решения задачи, что значительно повышает качество обучения.

Это золотой стандарт обучения сильных моделей, хотя он и требует больше времени на сходимость алгоритма. Если проводить аналогию с обучением ребенка: можно заставить его переписывать фразы с доски (копирование), а можно дать задачу и корректировать его самостоятельные попытки. Второй метод развивает мышление, хотя и занимает больше времени.
Но что же на самом деле предприняли китайские инженеры? Они пошли иным путем.
ИИ в роли беспристрастного судьи
Когда меня спрашивают, как Китай ухитряется конкурировать с США при остром дефиците современных чипов, я всегда указываю на дистилляцию, но в её «мягком» проявлении.
Речь идет о двух сценариях: буквальной имитации (SFT) и использовании ИИ в качестве арбитра (LLM-as-a-judge).
В первом случае модели заставляют «засыпать» Claude вопросами и буквально зазубривать его ответы слово в слово. Это проще и дешевле жесткой дистилляции, так как не требует синхронной работы двух систем.
Второй сценарий — «ИИ-арбитраж» — гораздо эффективнее. Именно он, вероятно, стал причиной столь массового обращения к Claude.
При обучении с подкреплением критически важно иметь систему оценки качества работы. В математике всё просто: ответ либо верный, либо нет. Но как оценить качество программного кода или эссе?
Когда автоматическая проверка невозможна, на помощь приходит другой, более мощный интеллект. Claude получал задачу, ответ «ученика» и критерии оценки (рубрики), после чего выносил вердикт.

Именно об этом методе и говорит Anthropic в своих обвинениях.
Такой подход позволяет масштабировать обучение с подкреплением на те области, которые трудно поддаются формализации, и выявлять мельчайшие огрехи даже в проверяемых задачах, вроде программирования.
Стоит отметить, что пока корпорации ведут патентные войны, рядовым пользователям и бизнесу просто нужен доступ к качественным инструментам.
Платформы вроде BotHub позволяют работать с передовыми нейросетями в едином интерфейсе. Вы можете легально сравнивать ответы разных моделей или использовать одну для верификации другой без лишних сложностей.

Сервис работает без VPN и принимает оплату российскими картами.
Перейдя по ссылке, вы получите 300 000 бонусных токенов для тестирования нейросетей и решения своих первых задач!
Но являются ли эти технические нюансы истинной причиной гнева Anthropic? Скорее всего, нет. Перед нами — удобный повод для лоббирования ограничений открытого ПО.
Атака на Open-Source
Реальная мотивация Anthropic далека от защиты интеллектуальной собственности (которая в мире ИИ весьма условна). Проблема не в методах, а в том, кто их применяет.
Anthropic последовательно продвигает два тезиса:
-
Борьба с открытым кодом. Компания убеждена, что ИИ не должен быть достоянием общественности. По их мнению, лишь узкий круг «избранных» (к которым они причисляют и себя) имеет право контролировать развитие и распространение технологии.
-
Антикитайская повестка. Они активно выступают за блокировку любого технологического прогресса Китая, используя риторику о «враждебных государствах» для продвижения жесткого регулирования.
Однако за политическими лозунгами скрывается экономика. У Anthropic нет тех колоссальных каналов дистрибуции, которыми обладают конкуренты:
-
OpenAI владеет брендом ChatGPT с миллиардной аудиторией.
-
Google интегрирует Gemini в Chrome и Workspace.
-
У xAI есть мощная база пользователей в X и экосистема Илона Маска.
Несмотря на партнерство с Amazon, Anthropic не может конкурировать в массовом сегменте, что заставляет их бороться за узкую, но состоятельную аудиторию профессионалов.
Именно поэтому они делают ставку на кодинг и интеллектуальных агентов. Их клиенты — это крупный бизнес и разработчики, готовые платить больше за высокую производительность.
Вся их бизнес-модель рухнет, если технологии обесценятся и станут доступными повсеместно. А китайские лаборатории делают именно это: они предлагают аналогичное качество за копейки или вовсе бесплатно.
Это не просто конкуренция, а часть стратегии Китая в «войне ИИ». Если им перекрывают доступ к железу, они отвечают декоммодитизацией американских разработок, обрушивая рынок и заставляя западные компании работать на грани рентабельности.
Если присмотреться, намерения Anthropic становятся прозрачными.
За маской алармизма («ИИ слишком опасен, его нужно запретить всем, кроме нас») и антикитайской риторики скрывается попытка заставить правительство США возвести регуляторный барьер. Это единственный способ спасти компанию, у которой нет иного рыночного преимущества.
Как это будет работать?
Запрет на открытые модели (откуда бы они ни исходили) позволит Anthropic и паре других гигантов диктовать цены и контролировать рынок, создавая условия для колоссального цифрового неравенства.
Они обещают «спасти мир», фактически уничтожая свободную конкуренцию и право выбора.
Задумайтесь: когда в истории ограничение прав на создание чего-либо в пользу пары корпораций шло на пользу потребителю?
Истинная причина паники в Кремниевой долине — отсутствие у них реального «технологического рва». У них есть лишь временное преимущество в капитале и количестве видеокарт.
Пока Китай и open-source сообщество выпускают конкурентоспособные модели, сверхприбыли Anthropic под угрозой.
Вам решать, какой путь развития ИИ предпочтительнее: закрытые технологии под контролем горстки миллиардеров, утверждающих, что только они спасут нас от апокалипсиса, или открытый, доступный и постоянно дешевеющий ИИ как результат коллективного труда исследователей со всего мира?
Кажется, выбор здесь очевиден.


