Глава Anthropic сохранил ограничения на использование ИИ Claude армией США

Руководитель компании Anthropic Дарио Амодей публично обозначил позицию стартапа в отношении принципиальных разногласий с Пентагоном. Предметом спора стали этические барьеры при эксплуатации систем искусственного интеллекта в оборонном секторе. По словам главы компании, Anthropic не намерена поступаться базовыми принципами, которые касаются запретов на тотальную слежку и разработку полностью автономных систем вооружения.

Амодей убежден, что использование передового ИИ для укрепления обороноспособности демократических государств имеет «экзистенциальное значение». Он акцентировал внимание на том, что Anthropic стала одним из первых технологических гигантов, интегрировавших свои нейросетевые модели в закрытые правительственные контуры и национальные исследовательские центры США. Специализированные версии ИИ уже помогают американским структурам в анализе разведданных, стратегическом моделировании и проведении сложных операций в киберпространстве.

Глава Anthropic также подчеркнул, что компания сознательно ставит интересы технологического суверенитета США выше коммерческой выгоды. В частности, стартап отказался от контрактов на сотни миллионов долларов с организациями, имеющими связи с Пекином, и выразил полную поддержку экспортным ограничениям на поставку высокотехнологичных чипов.

Вместе с тем Амодей пояснил, что Anthropic не стремится подменять собой военное руководство или накладывать вето на конкретные операции. Однако существуют две «красные линии», где применение ИИ вступает в прямой конфликт с ценностями свободы или выходит за рамки текущей надежности технологий.

Глава Anthropic сохранил ограничения на использование ИИ Claude армией США
Визуализация создана нейросетью Grok

Первый аспект — массовый мониторинг населения. Поддерживая внедрение ИИ в задачи законной внешней разведки, компания считает недопустимым использование своих алгоритмов для тотального контроля за гражданами, их цифровым следом и социальными взаимодействиями. По мнению Амодея, способность нейросетей объединять фрагментарные данные в исчерпывающие досье несет в себе критическую угрозу неприкосновенности частной жизни.

Второй пункт — создание автономных летальных систем, способных атаковать цели без прямого контроля со стороны человека. В Anthropic полагают, что современные технологии еще не достигли того уровня зрелости, чтобы гарантировать безошибочность в таких критических вопросах. Поставка инструментов, способных принимать решения о жизни и смерти без верификации оператором, противоречит политике безопасности компании.

Согласно заявлению Амодея, Министерство обороны США потребовало от разработчиков предоставить карт-бланш на «любое законное использование технологий», включая те области, которые Anthropic считает табуированными. Ведомство, как сообщается, прибегло к давлению, угрожая признать компанию «угрозой для цепочки поставок» и задействовать Закон об оборонном производстве, чтобы принудительно деактивировать программные ограничения.

Глава Anthropic назвал подобный ультиматум неприемлемым и заявил, что компания не может согласиться на эти требования «по соображениям профессиональной совести». Тем не менее он подтвердил готовность к дальнейшему конструктивному партнерству с оборонным сектором, если защитные механизмы останутся в силе. В случае расторжения контракта компания гарантирует беспрепятственную передачу функций другим поставщикам во избежание операционных сбоев.

В завершение Амодей отметил, что приоритетом Anthropic остается поддержка национальной безопасности, но только в рамках принципов, исключающих подрыв гражданских свобод и создание неконтролируемых техногенных рисков.

 

Источник: iXBT

Читайте также