Исследование: барьер сложности помешал киберпреступникам массово внедрить ИИ в свои схемы

Киберкриминальный мир пока не совершил качественного скачка в сторону масштабного внедрения искусственного интеллекта. К такому выводу пришли исследователи, проанализировавшие свыше 100 миллионов сообщений в подпольных сообществах, используя массив данных CrimeBB, аккумулирующий информацию из даркнета и закрытых сегментов сети.

Команда ученых из Эдинбургского, Кембриджского и Стратклайдского университетов сфокусировалась на дискуссиях, ведущихся с ноября 2022 года — периода, когда ChatGPT и аналогичные языковые модели стали доступны широкой аудитории. Целью экспертов было выяснить, каким образом представители преступного мира интегрируют ИИ и трансформируется ли от этого характер их деятельности.

Итоги исследования оказались весьма консервативными: ИИ действительно нашел применение, однако он не стал «волшебной таблеткой», снижающей порог входа в киберпреступность для новичков. Напротив, наиболее эффективные кейсы использования ИИ сосредоточены в областях, где уже накоплен солидный технический опыт: речь идет об обфускации вредоносного кода для обхода систем защиты, а также о координации бот-сетей в соцсетях для мошеннических схем.

Исследование: барьер сложности помешал киберпреступникам массово внедрить ИИ в свои схемы
Иллюстрация: Nano Banana

Исследователи особо подчеркивают, что инструменты для написания кода на базе ИИ работают как усилитель возможностей для уже состоявшихся специалистов. Для продуктивного использования таких систем необходимы глубокие познания в архитектуре кибератак и уязвимостях защиты, поэтому «демократизация» хакерства за счет ИИ пока остается мифом.

Авторы отмечают, что сфера киберпреступности уже давно прошла этап индустриализации: злоумышленники активно используют готовые инструменты, автоматизированные сервисы и шаблоны атак. Появление ИИ в этом контексте стоит рассматривать как эволюционный этап, а не как радикальную смену парадигмы.

Ситуация с рисками неоднородна. С одной стороны, встроенные барьеры безопасности в популярных чат-ботах эффективно блокируют часть вредоносных запросов. С другой — внутри закрытых сообществ не прекращаются попытки взлома этих ограничений и «джейлбрейка» моделей.

Наибольшее беспокойство у экспертов вызывает легитимный сектор. Фокус внимания смещается к уязвимостям плохо защищенных автономных систем («агентов»), способных принимать самостоятельные решения, а также к ПО, созданному с помощью ИИ без надлежащего аудита безопасности.

В работе также затрагивается социальный аспект: некоторые представители криминального сообщества опасаются, что из-за развития ИИ их легальные карьерные перспективы в IT сужаются, что в ряде случаев может подталкивать их к более активной преступной деятельности.

Результаты исследования будут представлены в июне на профильной конференции в Беркли. Основной посыл работы звучит предостерегающе: на данном этапе главная опасность заключается не в появлении «ИИ-хакеров», а в повсеместном внедрении ИИ-технологий без должного уровня кибербезопасности.

 

Источник: iXBT

Читайте также