США обяжут разработчиков тестировать нейросети перед их выпуском

Национальный институт стандартов и технологий США (NIST) объявил о существенном расширении взаимодействия с ключевыми игроками рынка искусственного интеллекта. В рамках инициативы Center for AI Standards and Innovation (CAISI) заключены новые соглашения с Google DeepMind, Microsoft и xAI. Целью данного сотрудничества является внедрение жесткого протокола тестирования передовых нейросетевых архитектур как на предрелизном этапе, так и в процессе их эксплуатации, с особым упором на выявление угроз национальной безопасности.

Фактически CAISI берет на себя роль связующего звена между государственным сектором и технологическими гигантами. Выполняя директиву министра торговли Говарда Лютника, организация займется централизованной координацией стресс-тестирования, проведением совместных научно-исследовательских изысканий и выработкой единых стандартов безопасности для коммерческих продуктов на базе ИИ.

Фундаментальным изменением стал предоставленный государственным экспертам превентивный доступ к алгоритмам до их официального выхода на рынок. Это дает возможность проводить независимый аудит функционала и оценивать потенциальные риски на самой ранней стадии разработки. Согласно отчету ведомства, специалисты уже провели свыше 40 подобных инспекций, включая комплексный анализ передовых систем, которые еще не были продемонстрированы широкой общественности.

США обяжут разработчиков тестировать нейросети перед их выпуском
Иллюстрация: Nano Banana

«Независимая и строгая метрология критически важна для понимания возможностей передового ИИ и его влияния на национальную безопасность», — подчеркнул директор CAISI Крис Фолл. Он добавил, что данные соглашения позволяют масштабировать текущую деятельность именно тогда, когда глобальная технологическая гонка достигла своего пика.

Особое внимание уделяется моделированию сценариев, максимально приближенных к реальным угрозам. Для оценки склонности моделей к деструктивному поведению разработчики предоставляют версии с временно деактивированными защитными фильтрами. К процессу верификации привлечены эксперты межведомственной группы TRAINS, специализирующейся на вопросах обеспечения безопасности через призму технологий ИИ.

Партнерство также предполагает налаживание эффективного обмена данными, что призвано повысить прозрачность процесса оценки и ускорить оптимизацию защитных характеристик продуктов. Часть этих исследовательских работ будет проводиться в специализированных защищенных и засекреченных инфраструктурах.

 

Источник: iXBT

Читайте также