Киберкриминальный мир пока не совершил качественного скачка в сторону масштабного внедрения искусственного интеллекта. К такому выводу пришли исследователи, проанализировавшие свыше 100 миллионов сообщений в подпольных сообществах, используя массив данных CrimeBB, аккумулирующий информацию из даркнета и закрытых сегментов сети.
Команда ученых из Эдинбургского, Кембриджского и Стратклайдского университетов сфокусировалась на дискуссиях, ведущихся с ноября 2022 года — периода, когда ChatGPT и аналогичные языковые модели стали доступны широкой аудитории. Целью экспертов было выяснить, каким образом представители преступного мира интегрируют ИИ и трансформируется ли от этого характер их деятельности.
Итоги исследования оказались весьма консервативными: ИИ действительно нашел применение, однако он не стал «волшебной таблеткой», снижающей порог входа в киберпреступность для новичков. Напротив, наиболее эффективные кейсы использования ИИ сосредоточены в областях, где уже накоплен солидный технический опыт: речь идет об обфускации вредоносного кода для обхода систем защиты, а также о координации бот-сетей в соцсетях для мошеннических схем.

Исследователи особо подчеркивают, что инструменты для написания кода на базе ИИ работают как усилитель возможностей для уже состоявшихся специалистов. Для продуктивного использования таких систем необходимы глубокие познания в архитектуре кибератак и уязвимостях защиты, поэтому «демократизация» хакерства за счет ИИ пока остается мифом.
Авторы отмечают, что сфера киберпреступности уже давно прошла этап индустриализации: злоумышленники активно используют готовые инструменты, автоматизированные сервисы и шаблоны атак. Появление ИИ в этом контексте стоит рассматривать как эволюционный этап, а не как радикальную смену парадигмы.
Ситуация с рисками неоднородна. С одной стороны, встроенные барьеры безопасности в популярных чат-ботах эффективно блокируют часть вредоносных запросов. С другой — внутри закрытых сообществ не прекращаются попытки взлома этих ограничений и «джейлбрейка» моделей.
Наибольшее беспокойство у экспертов вызывает легитимный сектор. Фокус внимания смещается к уязвимостям плохо защищенных автономных систем («агентов»), способных принимать самостоятельные решения, а также к ПО, созданному с помощью ИИ без надлежащего аудита безопасности.
В работе также затрагивается социальный аспект: некоторые представители криминального сообщества опасаются, что из-за развития ИИ их легальные карьерные перспективы в IT сужаются, что в ряде случаев может подталкивать их к более активной преступной деятельности.
Результаты исследования будут представлены в июне на профильной конференции в Беркли. Основной посыл работы звучит предостерегающе: на данном этапе главная опасность заключается не в появлении «ИИ-хакеров», а в повсеместном внедрении ИИ-технологий без должного уровня кибербезопасности.
Источник: iXBT


