
При обсуждении искусственного интеллекта у каждого складывается своё представление о том, что такое AI: для кого-то это кодогенератор, для другого — ненадёжный помощник в поиске, а для третьего — серьёзный конкурент. Восприятие технологии формируется мгновенно, в «реальном времени». В этом материале мы разберём, какие факторы диктуют отношение человека к AI, готовы ли мы доверять ему и даже благодарить за выполненную работу.
ИИ: инструмент или социальный собеседник?
В классическом исследовании 1994 года участники, хотя и не считали компьютер «полноценным» социальным субъектом, тем не менее вели себя с ним так, будто он «чувствует»: при оценке беседы с машиной они давали ей более высокие оценки, чем если бы просил кто-то другой.
Современные AI-системы наследуют эту двойственную природу: с одной стороны, они — просто инструменты, а с другой — воспринимаются как собеседники. Показательный пример: люди вежливее с шахматным суперкомпьютером Deep Blue, чем с руководством по правилам игры, хотя задача та же.

В рамках модели Stereotype Content Model (SCM) мы оцениваем любого «социального субъекта» — будь то человек, бренд или AI — по двум критериям:
- Теплота — доверие и дружелюбие, частично зависят от совпадения наших и чужих интересов.
- Компетентность — статус, потенциал и уверенность. Для AI дополнительно важен уровень автономности: чем сложнее задачи система решает самостоятельно, тем выше её компетентность.
В серии экспериментов участникам описывали разные AI: игровые соперники (AlphaGo), голосовые ассистенты (Siri), рекомендательные алгоритмы (Amazon), а также роботы-пылесосы, дроны и беспилотники. В финале их ставили в «дилемму заключённого» с AI-агентами, настроенными на разные уровни кооперации, чтобы проверить, как совпадение интересов влияет на восприятие «теплоты».

Рекомендатели набрали низкие баллы и по теплому восприятию, и по компетентности. Игровые AI продемонстрировали высокую компетентность при низкой «теплоте», а виртуальные ассистенты — лидеры в обоих измерениях. Любопытно, что Roomba оказалась «теплее» некоторых ассистентов, хотя и менее автономна.
Игра в «дилемму заключённого» подтвердила: дружелюбие AI возрастает при согласованных интересах, а автономность прямо коррелирует с восприятием компетентности.
Кто несёт ответственность: человек или AI?
Исследования показывают: даже простейший AI-помощник в вождении разделяет вину за ДТП с водителем, тогда как инструменты без элементов ИИ — нет. Вариации статуса ассистента (включён/выключен), его модальности (вибрация рулевого колеса или голосовые подсказки) и исхода ситуации (авария или её избежали) влияют на распределение ответственности.
Если AI помог предотвратить столкновение, его хвалят больше водителя, а при аварии ответственность водителя снижается, а искусственного интеллекта — растёт. Аналогичные эффекты отмечали и в других экспериментах: AI «прощают» меньше, но в совместном управлении человеком вина человека обычно выше.

Вероятно, мы требуем от беспилотников больше, чем от людей, из-за «алгоритмической аверсии»: AI сложнее простить за ошибку, особенно в сферах с высокими ставками (медицина, юриспруденция). Но когда решение принимает человек, ответственность чаще ложится на него.
Что влияет на доверие к ИИ?
Объективные факторы доверия к AI обычно сводят к трём категориям:
- Доброжелательность — этичность, справедливость, отсутствие предвзятости.
- Объективность — прозрачные стандарты, сертификация, государственное регулирование.
- Компетентность — устойчивость, надёжность и объяснимость решений.
Однако технические характеристики — лишь часть картины. Контекст взаимодействия (сложность задачи, репутация разработчика) и личностные черты пользователя (экстраверсия, открытость, внутренний локус контроля) играют не менее важную роль.
Например, экстраверты и люди с высоким уровнем открытости доверяют AI больше, но сильнее разочаровываются после его ошибки. При страхе потерять контроль (внутреннем локусе) отдать решения на откуп алгоритму сложнее, а предвзятость реальных людей порой заставляет искать в алгоритмах «объективность».

Возраст, пол, культура, профессиональная сфера, степень технологического погружения и аналитические способности — всё это влияет на наш личный взгляд на AI. Правил, как относиться к искусственному интеллекту, человечество пока не выработало. Мы пробуем разные модели, адаптируем их под собственные задачи и решаем, что оставить на усмотрение машины, а что лучше сделать самому. И порой… даже женимся на роботах.



