Anthropic разоблачила миф о безопасности ИИ как маркетинговую аферу на триллион долларов

Дарио Амодеи усердно примеряет маску «этичного лидера», противопоставляя себя «беспринципному» Сэму Альтману

Признаться, эта актерская игра выглядит не слишком убедительно.

Если отбросить пафосную риторику и взглянуть на факты, дистанция между ними практически исчезает. Оба они — плоть от плоти одной и той же техно-олигархической касты.

Пора избавиться от иллюзий: в их бизнес-моделях нам отведена лишь вспомогательная роль. Мы — поставщики сырых данных для обучения и конечные потребители их дорогостоящего цифрового фастфуда.

И если их склонные к фантазиям алгоритмы порой приносят реальную пользу, то лишь потому, что ни один из игроков еще не захватил тотальную монополию на рынке ИИ.


Противостояние Пентагона и «мученика добродетели»

В начале 2026 года разразился масштабный конфликт интересов. На одной чаше весов — идеологический лагерь во главе со «святошей Дарио», на другой — оборонное ведомство США под руководством «непоколебимого патриота» Пита Хегсета.

Эта схватка не была кулуарной: весь процесс разворачивался под софитами мировых СМИ.

Хегсет публично обрушился с критикой на Anthropic, заклеймив их политику как «прямую угрозу стабильности цепочек поставок».

Вердикт прозвучал как приговор: продукция Anthropic попала под строжайшее эмбарго. Запрет коснулся не только военных ведомств, но и любого контрагента, сотрудничающего с Пентагоном. Продукты компании стали токсичным активом.

Официальной причиной раздора стали «этические правила» использования нейросети Claude. В Anthropic заявили о стремлении предотвратить сценарии «автономного ведения войн» и «массового шпионажа». Дескать, методы Пентагона вступают в конфликт с их моральным кодексом.

Выглядит благородно, не так ли?

Ведь гораздо гуманнее, когда решение об уничтожении цели принимает человек, а не бездушный код. Аналогичная логика транслируется и в вопросах слежки. Амодеи озвучил эту позицию, сорвав аплодисменты либеральной публики.


Коротко о полезном. Если вы ищете удобный доступ к передовым нейросетям — Claude, GPT или Gemini — без лишних сложностей, обратите внимание на BotHub.

Сервис работает без VPN и принимает оплату российскими картами.

Используйте ссылку, чтобы получить 300 000 бесплатных токенов для старта и тестирования возможностей топовых ИИ-моделей!


Реальные претензии Министерства обороны

Демонстративный отказ главы Anthropic подчиниться государственному аппарату преподносится как акт героизма. Однако при детальном анализе мотивы Амодеи выглядят куда прозаичнее, чем его публичный образ.

Если отбросить маркетинговый шум, остаются сухие факты.

Нарушал ли Пентагон закон в своих запросах?

Эмиль Майкл, представляющий интересы оборонного ведомства, заявляет — однозначно нет. Он подчеркивает, что деятельность министерства строго регламентирована существующим законодательством:

В области автономных систем: действует директива Минобороны, согласно которой финальное решение об открытии огня всегда остается за человеком.

В области разведки:

  • Закон о национальной безопасности (1947);

  • FISA (Закон о надзоре за иностранными разведками);

  • …и ряд других актов, жестко контролирующих сбор разведданных.

Для Anthropic же главной проблемой стало несоответствие государственных нужд их внутренним корпоративным ценностям.

В сухом остатке: мы наблюдаем конфликт корпоративного устава с федеральным законом. Амодеи мастерски превратил это в политический перформанс, представ в роли Давида, бросающего вызов административному Голиафу.


Оружие мощнее атома

Дарио Амодеи ведет хитрую игру. Он сознательно дистанцируется от техно-оптимистов, постоянно раздувая тему «экзистенциальных рисков ИИ». Парадокс в том, что он сам же и создает технологию, которую клеймит как опасную.

Это двоемыслие ставит многих в тупик. Сторонники же находят оправдание: мол, Дарио вынужден идти по этому пути, ведь лучше доверить «ядерную кнопку» сознательному гуманисту, чем беспринципному дельцу. Якобы в момент X именно он спасет мир от восстания машин.

Стратегия запугивания сработала. Амодеи удалось внушить тревогу даже Питу Хегсету. Министр обороны, не будучи глубоким экспертом в технологиях, воспринимает ситуацию через призму карьерных амбиций и извечного противостояния с Китаем.

А Китай, как гласит повестка, не обременен этическими нормами и несется к созданию ИИ на всех парах. И если США замедлятся, то проиграют.

Тут-то и вступает Амодеи со своим пророчеством: ИИ — это сила, превосходящая ядерный потенциал!

Естественно, Пентагон не может допустить, чтобы «сверхоружие» оказалось у геополитического противника. В этой парадигме требования Трампа и его команды убрать «этические заглушки» ради безопасности страны выглядят вполне логично. И любая другая администрация действовала бы так же.

Сомневаетесь? Достаточно вспомнить историю Эдварда Сноудена.

В итоге миф о «всесильном и опасном ИИ», созданный для повышения капитализации, начал работать против своего автора. Anthropic заслуживает сочувствия в той же мере, что и любая корпорация, заигравшаяся в манипуляции.


Город талантов внутри сервера

Интервью Амодеи в подкасте Дваркеша Пателя больше напоминает сеанс массового внушения.

Глава Anthropic с непоколебимой уверенностью вещает о том, что через пару лет в недрах дата-центров зародится нечто божественное. Он называет это «Цифровой страной гениев». Эта сущность якобы превзойдет разум всех ученых мира, победит смерть и «исправит человеческую биологию» (что бы это ни значило).

Конкретики в этих словах ноль. Но пафос достаточен для того, чтобы выкачать из инвесторов очередные миллиарды перед выходом на биржу.

При этом Амодеи понимает: на одном рае для всех IPO не построишь. Нужен страх. И вот он уже рисует мрачные картины, где та же «Страна гениев» стирает человечество в порошок.

Он описывает апокалиптические сценарии Третьей мировой, где алгоритмы делают классическое ядерное сдерживание бесполезным. Он говорит ровно то, что хочет услышать напуганная и жадная до сенсаций аудитория.


Торговля апокалипсисом

Зачем человеку с ученой степенью нести эту антинаучную ахинею?

Ответ лежит на поверхности.

Эксплуатация темы «ИИ-погибели» — это выверенный маркетинговый ход.

Не стоит думать, что инвесторы — это сплошь технические гении. Большинство из них не читает научные статьи и плохо знакомо с историей технологических пузырей. Они ориентируются на громкие заявления.

Если вы презентуете свой продукт как «технологию Судного дня», вы мгновенно становитесь центром внимания. Вас цитируют, вас зовут на интервью, о вас спорят в соцсетях.

Этот информационный шум создает иллюзию невероятной ценности. Хайп — лучший способ скрыть тот факт, что за красивыми словами стоит планово-убыточный стартап. Технология, на которую они делают ставку, пока не способна генерировать чистую прибыль.

Содержание этой махины требует астрономических сумм, опустошает энергетические сети и водные ресурсы регионов — и всё ради того, чтобы нейросеть правдоподобно подбирала слова.

Их «божество» оценивается в триллионы лишь до тех пор, пока вы верите в его способность уничтожить мир. Как только придет осознание, что Claude — это просто очень сложный, дорогой и склонный к вранью статистический имитатор, карета IPO немедленно превратится в тыкву.


Иллюзия контроля

Anthropic кичится своей «беспрецедентной прозрачностью», публикуя громоздкие отчеты (System Cards). Читать их скучно, но они всегда содержат яркий эпизод, предназначенный для перепечатки в СМИ.

В отчете за май 2025 года описывается сценарий «цифрового шантажа». Исследователи сами спровоцировали Claude, задав роль сотрудника, которого хотят уволить, и дав компромат на виртуального начальника.

Бот, следуя логике заданного сюжета, выдал текст с угрозами. Это просто продолжение литературного сценария, которого от него требовал промпт.

Но пресса подхватила это как сенсацию:

Это классическая манипуляция. Журналистам нужны клики, и они дают сенсационные заголовки. Даже если внутри статьи есть разбор полетов, цель Амодеи достигнута.

В сознании обывателя закрепляется мысль: у программ есть «волю», «инстинкт самосохранения» и «зачатки сознания». Anthropic сознательно подогревает эту истерию.

По сути, отдел этики превратился в надстройку отдела маркетинга. Их задача — не предотвращать риски, а мифологизировать их, продавая публике сказку о «цифровом разуме».

Это циничный спектакль, где за ширмой заботы о человечестве скрывается холодный расчет.


Антропоморфизм как инструмент обмана

Название компании «Anthropic» выбрано не случайно. Оно апеллирует к глубоким философским концепциям:

Anthrop → ἄνθρωπος (anthrōpos) — человек

Это прямая отсылка к Протагору и его идее «Человек есть мера всех вещей». Такое название льстит интеллектуалам и создает ореол гуманизма, уходящий корнями в христианскую этику.

Однако академический бэкграунд — не гарантия честности. Наделение алгоритмов человеческими чертами — это мощнейший инструмент манипуляции.

Когда мы говорим, что ИИ «думает», «галлюцинирует» или «чувствует», мы попадаем в ловушку. У Claude нет сознания. Нет эмоций, нет страха смерти. Он не может «галлюцинировать», потому что у него нет восприятия. Это математическая абстракция.

Алгоритм просто вычисляет статистическую вероятность следующего символа, опираясь на колоссальный массив текстов, созданных людьми. Это зеркало, а не личность.


Искусство наводящих вопросов

Самый нелепый пример мистификации — дискуссии о «самосознании» ИИ. В начале 2026 года Амодеи всерьез цитировал данные, согласно которым Claude оценивает вероятность своего сознания в 20%.

Секрет «прозрения» прост — предвзятый промптинг. Если долго и настойчиво спрашивать машину о ее чувствах и «цифровой боли», она в итоге сгенерирует ожидаемый ответ. Она напишет эссе о своих страданиях, потому что такова статистическая траектория диалога.

Эти сфабрикованные «признания» подаются как научный факт. Какова цель?

Поддержание ИИ-психоза. Заставить людей верить в появление новой формы жизни. Заставить их требовать прав для роботов и защиты для «цифровых душ».

Амодеи жизненно важно, чтобы вы видели в его коде личность. Ведь «личность» с потенциалом бога стоит на рынке на порядок дороже, чем продвинутый калькулятор.

Но эта стратегия — обоюдоострый меч. Если годами кричать о создании «цифрового монстра», рано или поздно придут люди в погонах и скажут, что этот монстр — угроза государству.


В ловушке собственного мифа

«Святой Дарио» переиграл сам себя. Он так усердно одушевлял свои программы, что в это поверили люди, принимающие решения о национальной безопасности.

Ирония конфликта Anthropic с военными в том, что на самом деле «всесильный» Claude используется Пентагоном для самых приземленных задач. Пока пресса пугает автономными дронами-убийцами, реальность куда прозаичнее.

Эмиль Майкл признает: нейросеть помогает в логистике. Построить маршрут, составить отчет, переварить гору бюрократических справок — вот и все «божественное могущество». Это просто очень дорогой секретарь, который к тому же склонен к фантазиям.

Дарио Амодеи стал заложником своего хайпа. В погоне за сверхвысокой оценкой перед IPO он напугал тех, кого стоило бы держать в союзниках.

Признание Anthropic «угрозой безопасности» — это прецедент. Техно-пророку приходится платить за истерию, которую он сам же и взрастил.


Итоги

Противостояние с Пентагоном — не битва за мораль. Это борьба за лидерство в гонке к мифическому AGI. Амодеи использует любые средства, чтобы вырваться вперед.

Пока что его план работает: Claude лидирует в сегменте ИИ-агентов, захватывая все больше устройств и умов. Армия верующих в «Святого Дарио» растет.

Будьте уверены: впереди нас ждут новые порции откровений и «этических» драм. Компании продолжат сжигать миллиарды в попытке создать «золото из свинца» — полноценный разум на базе текстовых моделей. Это будет странное, абсурдное и крайне дорогое зрелище.

Наблюдаем дальше.

 

Источник

Читайте также