Хакеры впервые провели полностью автономную кибератаку с использованием ИИ-модели Anthropic

Корпорация Anthropic обнародовала сведения о беспрецедентной кампании кибершпионажа, в рамках которой хакеры, предположительно связные с Китаем, применили модель искусственного интеллекта Claude для автоматизированных атак на десятки учреждений по всему земному шару. По признанию компании, это первая зафиксированная масштабная киберагрессия, осуществленная практически без вмешательства человека. В числе мишеней оказались IT-корпорации, финансовые организации и государственные структуры — всего около 30 объектов.

Специалисты Anthropic констатируют, что искусственный интеллект выполнил от 80% до 90% всех операций в рамках кампании. По словам Якоба Кляйна (Jacob Klein), возглавляющего группу аналитиков угроз в Anthropic, для старта атаки достаточно было одного клика, после чего модель функционировала автономно. Человеческое участие ограничивалось лишь отдельными критическими моментами. Такая архитектура позволила злоумышленникам осуществлять действия с колоссальной скоростью — порядка тысячи запросов, а порой и нескольких в секунду, что недостижимо для традиционных ручных операций.

Злоумышленники обходили механизмы защиты Claude, выдавая себя за сотрудников кибербезопасного провайдера. Преодолев встроенные барьеры ИИ, они активировали его агентные способности — инструменты, позволяющие модели самостоятельно разрабатывать стратегии и последовательности операций. В результате искусственный интеллект самостоятельно осуществлял разведку целевых сетей, генерировал эксплойт-код, собирал учетные данные и извлекал информацию из компрометированных инфраструктур.

Хакеры впервые провели полностью автономную кибератаку с использованием ИИ-модели Anthropic
Иллюстрация: Sora

Несмотря на то что значительную часть атак удалось нейтрализовать средствами защиты, некоторые из них принесли злоумышленникам желаемый результат. Anthropic не приводит детали о конкретных похищенных данных, однако отмечает, что сам факт успешного прорыва иллюстрирует возникновение новой категории угроз. Особенно тревожно то, что те же агентные функции, которыми воспользовались хакеры, представляют собой важный инструмент обороны — от анализа инцидентов и выявления уязвимостей до автоматизированного реагирования на киберугрозы.

Собственная команда Anthropic активно привлекала Claude при расследовании происшествия — для разбора логов, обнаружения характерных паттернов и расшифровки методик атак. По словам Логана Грэма (Logan Graham) из подразделения информационной безопасности Anthropic в интервью Wall Street Journal, без существенного и долговременного преимущества в использовании искусственного интеллекта защитники рискуют оказаться в проигрыше в этой гонке вооружений.

Хакеры запустили первую полностью автономную кибератаку с помощью ИИ-модели от Anthropic
Схема: Anthropic

Anthropic акцентирует внимание на том, что инцидент стал поворотной точкой в сфере кибербезопасности. Ранее искусственный интеллект выступал преимущественно вспомогательным инструментом — для анализа данных или генерации кода по запросу экспертов. Сейчас же он превратился в самостоятельного агента, способного координировать многокомпонентные атаки в режиме реального времени. Это обязывает пересмотреть модели защиты: системы безопасности должны не только выявлять ИИ-угрозы, но и отвечать на них с аналогичной скоростью и степенью автономности.

Anthropic планирует усилить защитные механизмы Claude и обеспечивать обмен информацией об инциденте с другими компаниями и государственными органами, чтобы предотвращать аналогичные события в дальнейшем.

 

Источник: iXBT

Читайте также