OpenAI запрещает сотрудникам разглашать информацию о рисках ИИ

OpenAI запрещает сотрудникам разглашать информацию о рисках ИИ

Как сообщает The Washington Post, сотрудникам OpenAI запрещено разглашать информацию о возможных рисках, связанных с искусственным интеллектом.

Трудовые договоры компании включают положения, ограничивающие взаимодействие с федеральными регуляторами и предусматривающие серьёзные последствия за нарушение этих условий.

В контракте содержатся формулировки, намекающие на следующее: «Мы не хотим, чтобы сотрудники общались с федеральными регуляторами», — сообщил один из инсайдеров, пожелавший остаться анонимным из-за опасений репрессий.

Анонимный информатор выразил беспокойство по поводу безопасности и общественной значимости ИИ-технологий, разработанных в условиях этих ограничений. Он полагает, что такая политика препятствует необходимым проверкам и может подорвать доверие общества к ИИ.

В ответ на сложившуюся ситуацию, несколько сотрудников OpenAI обратились в Комиссию по ценным бумагам и биржам США (SEC) с просьбой провести расследование деятельности компании. Они требуют наложения штрафов за вынуждение сотрудников подписывать контракты, нарушающие их право на свободное выражение касательно безопасности и этики разработок.

Этот инцидент подчеркивает давнюю проблему соблюдения соглашений о конфиденциальности (NDA) в Кремниевой долине, где многие технологические компании сталкиваются с судебными исками за такие практики. Юристы отмечают, что, несмотря на осознание рисков утечек, компании часто предпочитают рисковать, считая, что потенциальные штрафы будут менее значительными, чем ущерб от раскрытия коммерческих или технологических секретов.

 

Источник