
Два десятилетия моей жизни были неразрывно связаны с исследованиями в области искусственного интеллекта. Я наблюдал, как эта дисциплина трансформировалась из любопытной академической забавы в фундаментальную опору глобальной цивилизации. Я видел триумфы и крахи завышенных ожиданий. До хрипоты я убеждал скептиков, что апокалиптические прогнозы — это лишь низкосортная беллетристика.
Но события текущей недели заставили меня замолчать.
Вооруженные конфликты несут в себе такую архаичную беспощадность, которую не в силах передать ни один сухой технический отчет. Война превращает семьи в пыль и ломает жизни с эффективностью, недоступной официальной статистике. Все эти годы я питал иллюзию: какой бы путь ни прошел ИИ, он никогда не станет частью этого ужаса. Он не превратится в безликий, невидимый механизм в системе уничтожения. Эта этическая граница казалась мне незыблемой монолитной скалой, и я верил, что индустрия разделяет этот взгляд.
Оказалось, что границы не существовало.
Прежде чем вы продолжите чтение, примите одну горькую мысль: произошедшее на этой неделе — не просто курьезная новость о том, как Трамп наложил вето на технологию, составляющую костяк его же армии. Это воплощение кошмара, который ИИ-сообщество годами старалось игнорировать. Угроза заключается в том, что при создании действительно мощного инструмента его милитаризация перестает быть вопросом морали. Она становится сугубо операционной задачей. Обыденной рутиной.
Жертвы конфликтов заслуживают сострадания, но они также заслуживают того, чтобы мы трезво взглянули на технологии, сделавшие их гибель более стремительной и неизбежной.
В этой истории прослеживается сюжет, достойный самой мрачной сатиры.
Президент подписывает распоряжение о запрете конкретной нейросети. Спустя считанные часы эта же модель координирует один из крупнейших авиаударов США за последнее время. Разработчики пребывают в экзистенциальном кризисе, будучи связанными жесткими военными обязательствами. А Пентагон со сдержанной улыбкой сообщает, что на «отключение системы» потребуется не менее полугода.
Это не сценарий фильма. Это наша актуальная реальность.
Запрет, существующий лишь на бумаге
В тот самый день, когда администрация Трампа опубликовала жесткий указ против нейросети Claude от стартапа Anthropic, Центральное командование США (CENTCOM) задействовало эту модель для обеспечения авиаударов по объектам в Иране.
ИИ не выполнял вспомогательные функции, сортируя документацию.
Согласно расследованию Wall Street Journal, Claude интегрирован непосредственно в «нервную систему» военной разведки CENTCOM. Система формировала оценки угроз, идентифицировала приоритетные цели и моделировала тактические сценарии. Процессы, требовавшие от штата аналитиков недель напряженной работы, теперь занимают считанные мгновения.
География использования не ограничивается Ближним Востоком. Инсайдеры утверждают, что сразу несколько ключевых командований США глубоко внедрили Claude в свои структуры. Масштабы проникновения ИИ в оборонный сектор настолько велики, что гражданское общество даже не подозревает о реальном положении дел.
На запросы журналистов о сложившемся парадоксе представители CENTCOM ответили красноречивым молчанием.
«Полгода на преодоление зависимости»
Здесь начинается настоящий бюрократический абсурд.
Когда Белый дом столкнулся с очевидным противоречием — ИИ запрещен, но генералы продолжают его эксплуатировать — последовало признание технологического тупика.
Полная деинсталляция Claude из армейских систем займет минимум шесть месяцев. Алгоритм слишком глубоко врос в инфраструктуру данных компании Palantir и стал неотъемлемой частью операционных процессов. Его невозможно просто «выключить», не рискуя дестабилизировать всю систему управления.
Тем временем оборонное ведомство уже планирует переход на решения от OpenAI и xAI Илона Маска. Однако в военных реалиях слово «планирует» может растянуться на неопределенный срок.
Эксперты подчеркивают: смена одной модели на другую — это лишь вершина айсберга. Адаптация персонала, перестройка рабочих протоколов и калибровка уровня доверия к новому «цифровому советнику» потребуют колоссального времени. Claude перестал быть просто программным обеспечением — он превратился в институциональный рефлекс армии США.
Версия, скрытая от посторонних глаз
Теперь о фактах, вызывающих искреннюю тревогу.
В интервью CNBC Дарио Амодеи, глава Anthropic, проявлял предельную осторожность в формулировках. Тем не менее, он подтвердил существование эксклюзивной кастомной версии Claude, созданной специально для нужд Пентагона.
Она функционирует в изолированном, сверхзащищенном облачном сегменте. Ей не нужно конкурировать за ресурсы с миллионами пользователей. Весь ее вычислительный потенциал направлен на решение военных задач.
Амодеи вскользь упомянул, что объем вычислений для этих моделей удваивается каждые четыре месяца.
Вскоре в профессиональных сообществах (в частности, на Reddit) появились данные от источников, близких к разработке. Суть их сводится к следующему: модель, которой оперирует Пентагон, вероятно, опережает общедоступные версии на одно или два поколения. Это стандартная практика: еще в 2025 году OpenAI создала алгоритмы, демонстрирующие выдающиеся успехи в высшей математике и научном поиске, но эти инструменты так и не стали публичными.
Вывод неутешителен: пока пользователи тестируют Claude Opus 4.6 в браузере, военные, скорее всего, уже эксплуатируют Opus 5 или 5.5. Это нейросеть, обученная на массивах секретной разведки и работающая на мощностях, о которых ведущие лаборатории мира могут только мечтать.
Две грани прогресса: пока технологии скрыты, возможности остаются у вас
Парадокс современности заключается в том, что мощнейшие итерации ИИ заперты в секретных бункерах. Однако это не лишает нас возможности использовать гражданские инструменты для созидания.
Если вы применяете ИИ лишь для рутинной переписки, вы используете лишь малую часть его потенциала. Истинная ценность — в автоматизации бизнес-процессов, проектировании сложных систем и архитектурном планировании. Чтобы раскрыть этот потенциал, необходим профессиональный инструментарий.
Платформы вроде BotHub предоставляют доступ к полноценной экосистеме ведущих мировых нейросетей — от генерации программного кода до глубокой аналитики — в рамках единого интерфейса. Это персональная лаборатория для тестирования гипотез и создания эффективных систем для мирных целей.

Сервис работает без VPN и поддерживает оплату российскими картами.
Перейдя по ссылке, вы получите 300 000 приветственных токенов для реализации своих первых проектов и знакомства с возможностями ИИ нового поколения.
Потенциал ИИ в погонах
Анализируя утечки и текущие тренды, можно сформировать представление о возможностях секретной версии ИИ:
Автономная стратегия: Способность самостоятельно просчитывать сложнейшие геополитические комбинации и проводить симуляции конфликтов со скоростью, недоступной ни одному штабу, выявляя скрытые закономерности в массивах данных.
Мгновенный синтез разведданных: Одновременная обработка колоссальных объемов информации с выдачей готовых оперативных сводок, на подготовку которых у людей ушли бы недели.
Многоуровневая дедукция: Считается, что логические цепочки этой модели значительно длиннее гражданских аналогов, что позволяет ей выстраивать многоходовые стратегии, недоступные стандартным версиям Claude.
Это не просто чат-бот. Это полноценный когнитивный фундамент для ведения войн нового поколения.
Точка невозврата: где Anthropic сказала «нет»
Позиция Anthropic в этом контексте выглядит крайне драматично.
Они не были принципиальными противниками военного заказа. Контракт на 200 миллионов долларов — слишком весомый аргумент. Конфликт возник лишь тогда, когда требования перешли определенную черту.
Два условия Пентагона стали непреодолимым препятствием.
Тотальный мониторинг граждан: Военные планировали использовать Claude для анализа данных обычных американцев — от истории поисковых запросов до финансовых транзакций — с целью создания детальных психофизических профилей. Anthropic ответила категорическим отказом.
Автономная санкция на поражение: Пентагон стремился к созданию полностью автономных систем вооружения — дронов, способных самостоятельно принимать решение об открытии огня. В бюджете 2026 года на эти цели заложены миллиарды долларов.
Anthropic предлагала компромиссные решения по повышению надежности систем, проводя параллели с безопасностью автопилотов. Однако они твердо стояли на том, что ИИ не должен нести ответственность за лишение жизни.
Пентагон пытался обойти это условие, предлагая оставить Claude в облаке, не вшивая его в боеголовки. Но разработчики осознали: в современной войне облачный сервер — это такое же оружие. Если алгоритм, запускающий цепь фатальных событий, находится в Вирджинии, он не становится менее смертоносным.
Ирония как итог
Anthropic выстраивала свой бренд на принципах этики и безопасности. Они позиционировали себя как организацию, осознающую риски ИИ лучше других.
Итог поразителен: их разработка стала фундаментом реальной военной операции. Их закрытая версия, вероятно, является мощнейшим боевым ИИ современности. А правительство, пытавшееся запретить их, не может отказаться от их услуг.
Это нельзя назвать простым лицемерием. Anthropic действительно пыталась установить границы, пожертвовав колоссальной прибылью. Но эта ситуация обнажает пугающую истину: создав технологию цивилизационного масштаба, вы неизбежно теряете контроль над тем, в чьих руках она окажется.
Горизонт событий
Рано или поздно военные перейдут на другие платформы. Этот процесс будет болезненным и долгим, но он завершится.
А пока секретная версия Claude продолжает функционировать, принимая решения, влияющие на реальные судьбы. Она обучается на закрытых данных и оперирует бюджетами, растущими в геометрической прогрессии.
Гонка вооружений в сфере ИИ — это не футуристический прогноз. Это наша операционная действительность, развивающаяся быстрее, чем законы, комитеты по этике или президентские указы.
Мы долго ждали момента, когда мир изменится навсегда. Похоже, мы уже находимся глубоко внутри этой новой реальности.


