OpenAI открыла центр для оценки безопасности моделей ИИ после обвинений в плагиате и судебных тяжб

OpenAI презентовала новый онлайн-ресурс – Центр оценки безопасности, предназначенный для раскрытия данных о безопасности своих AI-моделей. Открытие состоялось 14 мая 2025 года, и цель центра – усилить прозрачность в деятельности компании. Недавно OpenAI подверглась критике и судебным искам за предполагаемое незаконное использование материалов с защищёнными авторскими правами в обучении AI. Например, The New York Times указала, что компания случайно удалила доказательства в деле о плагиате.

Центр оценки безопасности будет регулярно обновляться и предоставлять информацию о таких аспектах, как частота ошибок моделей, обнаружение вредоносного контента в их ответах, эффективность моделей согласно инструкциям и попытки обхода ограничений. OpenAI стремится расширить ранее доступную информацию, представленную в «системных картах», которые содержали лишь базовые сведения о мерах безопасности каждой модели.

OpenAI открыла центр для оценки безопасности моделей ИИ после обвинений в плагиате и судебных тяжб
Источник: x.com/OpenAI

«С развитием методов оценки ИИ мы стремимся делиться нашим прогрессом в создании всё более масштабируемых способов измерения возможностей и безопасности моделей», — говорится в заявлении OpenAI. Компания подчёркивает, что часть публикаций по результатам оценки безопасности нацелена не только на улучшение понимания работы их систем, но и на содействие в увеличении прозрачности в области безопасности. OpenAI также отмечает намерение более активно взаимодействовать с профессиональным сообществом по вопросам безопасности.

В Центре оценки безопасности представлены данные о различных моделях, включая GPT-4.1–4.5. Однако OpenAI подчёркивает, что эти данные являются лишь «снимком времени» и рекомендует обращаться к системным картам, оценкам и другим публикациям для получения более полного представления.

Тем не менее, остаётся значительное ограничение ресурса: выбор информации для публикации осуществляет сама OpenAI. Это оставляет вероятность того, что не все проблемы и недостатки моделей будут раскрыты общественности.

 

Источник: iXBT

Читайте также