Ультиматум на $200 млн: почему Пентагон грозит уничтожить лидера мирового ИИ-рынка

На этой неделе развернулись события, которые практически не попали в фокус внимания центральных СМИ, однако они сигнализируют о фундаментальных переменах в политическом ландшафте США. Во вторник утром глава оборонного ведомства Пит Хегсет вызвал CEO Anthropic Дарио Амодеи в Пентагон для жесткого обсуждения военного применения нейросети Claude. Это не был формальный диалог о многомиллионном контракте; фактически Министерство обороны оказывает на разработчиков беспрецедентное давление. От компании требуют демонтировать последние этические барьеры, чтобы использовать ИИ для тотальной слежки внутри страны и создания автономных боевых систем, способных действовать без участия оператора.

Согласно сведениям Axios, позиция ведомства была ультимативной: «полное содействие или разрыв связей». Компании пригрозили включением в список «угроз цепочке поставок» — ярлык, который обычно закрепляется за структурами, аффилированными с враждебными режимами. Это равносильно исключению из оборонных заказов и скрытому бойкоту со стороны любых партнеров Пентагона.

Стоит вспомнить: летом прошлого года Anthropic заключила сделку на 200 миллионов долларов, благодаря чему Claude стал эксклюзивным ИИ-решением для закрытых военных сетей США. Функционируя на базе защищенного облака Amazon и аналитических мощностей Palantir, нейросеть уже была задействована в резонансной операции по захвату президента Венесуэлы Николаса Мадуро.


Эпоха ИИ как простого вспомогательного инструмента подошла к концу

Если ваше взаимодействие с ИИ ограничивается лишь ускорением рутинных процессов, вы остаетесь в позиции рядового пользователя. Переход в категорию «создателей» — тех 5% профессионалов, которые формируют будущее, — требует смены парадигмы. Нужно не просто оптимизировать текущие задачи, а проектировать системы, которые полностью перестраивают или масштабируют бизнес-модели.

Для такого рывка необходим соответствующий инструментарий. Зацикленность на одной платформе неизбежно ограничивает ваш потенциал.

Платформы вроде BotHub предоставляют доступ к полноценной экосистеме ведущих нейросетей в едином интерфейсе — от продвинутой работы с текстами до комплексного анализа данных. Это дает возможность сопоставлять результаты разных моделей и создавать те самые инновационные решения, которые обеспечивают лидерство.

Сервис работает без VPN и поддерживает оплату российскими банковскими картами.

Переходите по ссылке, чтобы получить стартовый пакет из 300 000 токенов для реализации ваших первых ИИ-проектов!


Инцидент в Венесуэле резко обострил отношения: попытки Anthropic прояснить детали использования Claude в боевых условиях были восприняты Пентагоном как неуместные «этические поучения». Военные дали понять: если технология интегрирована в систему, распоряжаться ею будут по собственному усмотрению.

Оборонное ведомство, которое при нынешней администрации все чаще называют «Министерством войны», в январе представило обновленную ИИ-стратегию. Ее суть предельно лаконична: в течение полугода во все контракты должен быть внедрен пункт о «любом законном применении», а подрядчики обязаны устранить технические фильтры. Посыл очевиден: границы «законности» теперь будут устанавливаться исключительно внутри Пентагона.

Конфликт вышел за рамки технологического спора — это вопрос большой политики. Anthropic пошла на уступки по многим пунктам, сохранив лишь два принципиальных запрета: на использование ИИ для массового контроля над гражданами и на разработку полностью автономных систем летального оружия. Именно эти «красные линии» Вашингтон требует стереть.

Это не антиутопия, а реальность. Практика массовой слежки в США не секрет, но с внедрением Claude масштаб анализа становится беспрецедентным. Размываются даже такие фундаментальные понятия, как «незаконный мониторинг». Система, обрабатывающая миллионы сообщений и связывающая биометрию с геолокацией в реальном времени, превращается в инструмент предиктивного контроля, способный маркировать политические настроения целых групп населения.

Отказ от участия в создании автономного оружия — еще более критический вопрос. Системы, которые самостоятельно принимают решение об уничтожении цели, перестали быть теорией. Как подчеркивает Центр инноваций в области международного управления, мир стремительно втягивается в эпоху войн без контроля со стороны человека. Прямое управление заменяется формальным наблюдением, что неизбежно ведет к полной автоматизации насилия.

Ведущие медиа избегают детального разбора этой темы. Как отмечает издание Lawfare, регулирование военного ИИ должно находиться в ведении Конгресса, а не решаться в кулуарах Пентагона и частных офисов.

Тревогу вызывает не только технологический вектор, но и методы его реализации. Отсутствуют законы, регламентирующие применение генеративного ИИ в боевых целях, и нет публичных дискуссий о праве военных на безлимитный доступ к подобным мощностям. Правила игры формируются в режиме строгой секретности.

Когда вопросы жизни, смерти и глобальной приватности решаются под давлением санкций и угроз, проблема становится институциональной. Кто обеспечит прозрачность, если государство подавляет любую попытку установить этические рамки?

Ситуация осложняется готовностью других технологических гигантов поступиться принципами ради контрактов. Начинается опасная гонка, где этика становится помехой. К примеру, проект xAI Илона Маска уже интегрируется в системы министерства и, вероятно, не будет иметь ограничений на военное использование. При этом, несмотря на публичное сопротивление Дарио Амодеи и его отказ подчиниться, Anthropic постепенно отходит от своего изначального «Обещания безопасности» (Safety Pledge). Иронично, ведь именно за эту приверженность этике Амодеи удостоился обложки Time.

Сохраняется ли в таких условиях суть демократии? Формально — возможно. Но фактически мы наблюдаем движение к «темным временам», когда дистанция между свободным обществом и полицейским государством сокращается до минимума. Демократию характеризует не наличие урн для голосования, а реальные ограничения государственной власти. Если власть стремится к бесконтрольной предиктивной слежке и автоматизированному насилию, основы правопорядка оказываются под угрозой.

Суть спора не в праве на оборону, а в том, кто устанавливает правила. Если военная машина сама определяет границы дозволенного без внешнего контроля, это сигнализирует о кризисе верховенства закона.

ОБНОВЛЕНИЕ (27.02.2026): Дарио Амодеи выступил с официальным заявлением. Его ответ военному ведомству был отрицательным.

 

Источник

Читайте также