Компания OpenAI значительно укрепила свои меры безопасности в ответ на обеспокоенность по поводу корпоративного шпионажа. Согласно данным Financial Times, процесс усиления безопасности, начатый ранее, был значительно ускорен после того, как в январе этого года китайский стартап DeepSeek выпустил конкурирующую модель. OpenAI обвинила DeepSeek в незаконном копировании своих моделей с помощью метода «дистилляции».
В рамках усиленных мер безопасности внедрена политика «ограничения информации», которая сокращает доступ сотрудников к конфиденциальным алгоритмам и новым продуктам. Например, в процессе разработки модели OpenAI o1 обсуждение проекта в общих офисных зонах разрешалось только проверенным членам команды, имеющим полномочия для доступа к информации о проекте.

Иллюстрация: Sora
Кроме того, OpenAI теперь размещает свои технологии на изолированных компьютерах, внедрила биометрический доступ к офисам (сканирование отпечатков пальцев сотрудников) и использует политику «отказа по умолчанию» для интернет-соединений, требующую явного разрешения для внешних подключений.
Компания также усилила физическую охрану своих дата-центров и увеличила количество сотрудников, ответственных за кибербезопасность.
Эти изменения, вероятно, отражают общие опасения по поводу попыток иностранных конкурентов похитить интеллектуальную собственность OpenAI. Однако, учитывая текущую «войну за таланты» среди американских компаний в сфере ИИ и частые утечки информации от генерального директора Сэма Альтмана, OpenAI, возможно, также стремится решить внутренние проблемы безопасности.
Источник: iXBT



