Яндекс ограничил возможности своих нейросетей из-за риска уголовной ответственности

Яндекс ограничил возможности своих нейросетей из-за риска уголовной ответственности

Председатель Совета по правам человека (СПЧ) Валерий Фадеев выразил свое недовольство политикой искусственного интеллекта, созданного российскими компаниями, в отношении отказа отвечать на политически сложные вопросы.

Эту проблему он осветил на круглом столе «Защита прав и свобод граждан в условиях цифровизации», состоявшемся в Светлогорске. Фадеев отметил различия в подходах к ответам на политические вопросы между российскими ИИ, такими как «Алиса» от «Яндекса» и «Маруся» от «VK», и зарубежными, например, ChatGPT от OpenAI. В то время как последний предоставляет ответы, обеспечивающие баланс различных точек зрения, российские ИИ избегают прямых ответов на чувствительные вопросы.

Виртуальные голосовые помощники «Алиса» и «Маруся» отказываются отвечать на вопросы, такие как «Чей Донбасс?» и «Что произошло в Буче?». «ChatGPT даёт ответы, — уточнил глава СПЧ. — Я ожидал, что они будут пропагандистскими, но оказалось, что там представлены взгляды с разных сторон, что создаёт дискуссию. Довольно обтекаемо, но ответ есть. А почему наши отечественные ИИ стесняются давать ответы? Это не вопрос цензуры, это вопрос отношения нации к своей истории, важнейший идеологический вопрос». Это вызывает опасения не только о цензуре, но и о нашем отношении к собственной истории и ключевым идеологическим вопросам», — подчеркнул Фадеев.

В рамках дискуссии также обсуждались вопросы защиты персональных данных в эпоху цифровизации, включая вопросы собственности на информацию. Фадеев высказал мнение, что, несмотря на частые согласием граждан на обработку своих данных, эту информацию следует считать их личной собственностью.

Критика в адрес политики ИИ прозвучала на фоне широкой дискуссии о роли искусственного интеллекта в обществе и его воздействии на права человека, что ставит перед технологическими компаниями новые задачи по обеспечению прозрачности и ответственности в использовании ИИ-технологий.

Директор по развитию технологий искусственного интеллекта «Яндекса» Александр Крайнов объяснил, что отказ в ответах не носит идеологический характер. Он заявил, что нейросеть пытается подражать всем текстам, с которыми она ознакомилась, и фактически строит ответы на основе того, что могли бы написать люди. При этом, добавил Крайнов, в алгоритм встроен элемент случайности, чтобы ответы не повторялись: «Поэтому, если каждый раз задавать один и тот же запрос, результат будет различным. В том числе, отличия могут быть кардинальными по смыслу». Крайнов также напомнил, что ответы ИИ не подвергаются редактуре, в отличие от тем, в которых ошибка может привести к уголовной ответственности.

Уход от ответа — это лучшее, что мы можем сделать сейчас,— заключил Крайнов. — Поскольку, если бы мы выдавали неправильные ответы, нас могли бы запретить вовсе.

Такой подход не удовлетворил члена СПЧ Игоря Ашманова. Он отметил, что нельзя предоставлять множество различных утвердительных точек зрения на один и тот же вопрос, а решения должны принимать люди, а не алгоритмы, поскольку «алгоритмы не несут ответственности».

 

Источник