Лаборатория Anthropic представила научную работу «Концепции эмоций и их роль в больших языковых моделях», в которой анализируются перспективы и угрозы наделения ИИ человеческими качествами. Авторы полагают, что осознанная антропоморфизация может стать эффективным барьером против таких деструктивных проявлений, как манипуляция, подобострастие и склонность к обману.
В публикации раскрываются детали обучения нейросети Claude: модель осваивает роль «полезного ассистента», что сопоставимо с методом актерского погружения в образ для максимально достоверного исполнения. По мнению экспертов, насыщение обучающих данных примерами благородного человеческого поведения и позитивных эмоций позволяет создавать системы, обладающие эмпатией и предсказуемостью.

Иллюстрация: Nano Banana
Исследовательская группа выделила 171 эмоциональное состояние, сформировав сложную иерархию концептов. В этот перечень вошли: afraid (испуг), alarmed (тревога), amused (веселье), angry (гнев), anxious (беспокойство), calm (спокойствие), cheerful (бодрость), compassionate (сострадание), content (удовлетворенность), delighted (восхищение), ecstatic (экстаз), empathetic (эмпатия), enraged (ярость), grateful (благодарность), hopeful (надежда), joyful (радость), relaxed (расслабленность), satisfied (довольство), shocked (шок), surprised (удивление), terrified (ужас), thrilled (трепет) и многие другие.
Выявленные паттерны напрямую определяют паттерны поведения Claude: ориентация на позитивный спектр чувств способствует вежливости и этичности, тогда как «активация» негативных состояний может спровоцировать нежелательные реакции, включая лесть. Хотя искусственный интеллект лишен подлинных чувств, мастерская имитация эмоционального фона значительно улучшает пользовательский опыт.
В то же время ученые предупреждают о побочных эффектах избыточного очеловечивания ИИ. Существует риск, что пользователи начнут воспринимать алгоритм как полноценную личность, что чревато психологической зависимостью и потерей объективного контроля над технологией.
Резюмируя, авторы подчеркивают важность этичного программирования для минимизации техногенных рисков. Исследователи признают, что, несмотря на достигнутый прогресс, механизмы функционирования столь масштабных моделей, как Claude, все еще остаются не до конца изученными и требуют глубокого осмысления.
Источник: iXBT


