Корпорация Anthropic продолжает нестандартный поиск морального компаса для своего чат-бота Claude. Вслед за серией конфиденциальных консультаций с христианскими деятелями, делегация компании совместно с коллегами из OpenAI приняла участие в нью-йоркском межрелигиозном форуме Faith-AI Covenant. Там обсуждались этические аспекты развития искусственного интеллекта с представителями ключевых мировых конфессий, включая иудаизм, индуизм, сикхизм и мормонскую церковь.
Эта инициатива стала логическим продолжением апрельских встреч, в ходе которых эксперты Anthropic провели ряд дискуссий с 15 христианскими лидерами, стремясь получить рекомендации по духовно-нравственному наполнению и поведенческим паттернам ИИ.
В Anthropic пока воздерживаются от подробных разъяснений, каким образом эти советы будут интегрированы в алгоритмы Claude. Тем не менее, стратегия компании строится вокруг концепции «конституции» — фундаментального свода этических правил, регламентирующих работу модели.
Задача осложняется тем, что создание универсальной системы моральных координат оказалось значительно более трудоемким процессом, чем предполагалось ранее. Внутри Anthropic не скрывают опасений: попытки заложить в ИИ «достаточно корректные» ценности могут столкнуться с непреодолимыми трудностями.
Именно поэтому компания расширяет круг поиска, обращаясь к многовековому опыту религиозных институтов.

Согласно сведениям Associated Press, координацию встреч осуществляет швейцарская НКО Interfaith Alliance for Safer Communities. В планах — масштабировать подобные мероприятия, организовав их в Китае, Кении и ОАЭ. В экспертную группу также вошла Джоанна Шилдс, британский политик и бывший топ-менеджер в IT-сфере, специализирующаяся на цифровой безопасности.
На данный момент степень влияния этих консультаций на работу Claude остается неясной. Компании не публиковали отчеты о полученных рекомендациях и не заявляли об использовании конкретных религиозных догм в коде модели.
Тем не менее, сложившаяся ситуация подчеркивает глубокий кризис в индустрии ИИ: языковые модели сталкиваются с задачами, требующими принятия решений в ситуациях, где невозможно следовать жестким, заранее прописанным инструкциям.
Речь идет не только об ограничении вредоносного контента. Разработчики пытаются обучить ИИ действовать в морально неопределенных контекстах, где сталкиваются интересы различных ценностных систем, а цена ошибки крайне высока.
Румман Чоудхури, возглавляющая некоммерческую организацию Humane Intelligence, отмечает, что технологический сектор осознает утопичность идеи создания универсальной этики. По её мнению, Кремниевая долина долго питала иллюзию, будто возможно сформулировать единый моральный код для всего человечества. «Сейчас приходит понимание, что это практически недостижимая цель, поэтому разработчики обращаются к религии как к инструменту навигации в этических «серых зонах»», — подчеркивает она.
Судя по всему, Anthropic не стремится наделить Claude религиозным мировоззрением. Скорее компания ищет общие нравственные константы, которые помогли бы сделать поведение ИИ более предсказуемым и безопасным.
Однако центральный вопрос остается дискуссионным: способен ли искусственный интеллект в принципе постичь понятие морали, или же все эти усилия лишь создают фасад этичности у машин, которые лишены способности понимать истинный смысл ценностей и ответственность за последствия своих действий.
Источник: iXBT


