В России разрабатывают стандарт безопасности для искусственного интеллекта

В России разрабатывают стандарт безопасности для искусственного интеллекта

Федеральная служба по техническому и экспортному контролю (ФСТЭК) планирует к концу 2025 года представить проект стандарта по безопасной разработке систем искусственного интеллекта.

Об этом на форуме BIS‑2025 заявил первый заместитель директора ведомства Виталий Лютиков; сообщают «Ведомости».

Новый документ предусматривается как дополнение к действующему стандарту по безопасной разработке программного обеспечения и будет учитывать специфические риски, связанные с дата‑центрами, моделями машинного обучения и особенностями обращения с данными.

Эксперты подчёркивают, что речь идёт о методическом руководстве, направленном на устранение пробелов в существующих требованиях: традиционные модели угроз не охватывают всю специфику ИИ‑систем.

«Стандарт должен регулировать не только работу с моделями, но и процедуры сбора, хранения и разметки наборов данных, а также меры по обеспечению их целостности и конфиденциальности», — пояснил консультант по безопасности Positive Technologies Алексей Лукацкий.

Предполагается, что новые требования станут обязательными для разработчиков решений для государственных органов и объектов критической инфраструктуры, а со временем могут получить распространение и в коммерческом секторе.

В настоящее время в приказе ФСТЭК №117, вступающем в силу с 1 марта 2026 года, уже выделён раздел, посвящённый защите ИИ и данных, используемых для его обучения, однако он содержит лишь общие положения и не описывает детальные методы. Разрабатываемый стандарт призван восполнить эти пробелы.

 

Источник