Как общество относится к искусственному интеллекту

Как общество относится к искусственному интеллекту

При обсуждении искусственного интеллекта у каждого складывается своё представление о том, что такое AI: для кого-то это кодогенератор, для другого — ненадёжный помощник в поиске, а для третьего — серьёзный конкурент. Восприятие технологии формируется мгновенно, в «реальном времени». В этом материале мы разберём, какие факторы диктуют отношение человека к AI, готовы ли мы доверять ему и даже благодарить за выполненную работу.

ИИ: инструмент или социальный собеседник?

В классическом исследовании 1994 года участники, хотя и не считали компьютер «полноценным» социальным субъектом, тем не менее вели себя с ним так, будто он «чувствует»: при оценке беседы с машиной они давали ей более высокие оценки, чем если бы просил кто-то другой.

Современные AI-системы наследуют эту двойственную природу: с одной стороны, они — просто инструменты, а с другой — воспринимаются как собеседники. Показательный пример: люди вежливее с шахматным суперкомпьютером Deep Blue, чем с руководством по правилам игры, хотя задача та же.

Уместность благодарности AI
«Поставив встречи, Алекс поблагодарил свой календарь». Насколько уместна эта благодарность?

В рамках модели Stereotype Content Model (SCM) мы оцениваем любого «социального субъекта» — будь то человек, бренд или AI — по двум критериям:

  • Теплота — доверие и дружелюбие, частично зависят от совпадения наших и чужих интересов.
  • Компетентность — статус, потенциал и уверенность. Для AI дополнительно важен уровень автономности: чем сложнее задачи система решает самостоятельно, тем выше её компетентность.

В серии экспериментов участникам описывали разные AI: игровые соперники (AlphaGo), голосовые ассистенты (Siri), рекомендательные алгоритмы (Amazon), а также роботы-пылесосы, дроны и беспилотники. В финале их ставили в «дилемму заключённого» с AI-агентами, настроенными на разные уровни кооперации, чтобы проверить, как совпадение интересов влияет на восприятие «теплоты».

Теплота и компетентность разных AI
Красный — игровые AI, бирюзовый — виртуальные ассистенты, зелёный — рекомендательные системы, сиреневый — прочие устройства

Рекомендатели набрали низкие баллы и по теплому восприятию, и по компетентности. Игровые AI продемонстрировали высокую компетентность при низкой «теплоте», а виртуальные ассистенты — лидеры в обоих измерениях. Любопытно, что Roomba оказалась «теплее» некоторых ассистентов, хотя и менее автономна.

Игра в «дилемму заключённого» подтвердила: дружелюбие AI возрастает при согласованных интересах, а автономность прямо коррелирует с восприятием компетентности.

Кто несёт ответственность: человек или AI?

Исследования показывают: даже простейший AI-помощник в вождении разделяет вину за ДТП с водителем, тогда как инструменты без элементов ИИ — нет. Вариации статуса ассистента (включён/выключен), его модальности (вибрация рулевого колеса или голосовые подсказки) и исхода ситуации (авария или её избежали) влияют на распределение ответственности.

Если AI помог предотвратить столкновение, его хвалят больше водителя, а при аварии ответственность водителя снижается, а искусственного интеллекта — растёт. Аналогичные эффекты отмечали и в других экспериментах: AI «прощают» меньше, но в совместном управлении человеком вина человека обычно выше.

Ответственность человека и AI
Зелёный — человек, фиолетовый — AI. Слева оценки при аварии, справа — при её избежании.

Вероятно, мы требуем от беспилотников больше, чем от людей, из-за «алгоритмической аверсии»: AI сложнее простить за ошибку, особенно в сферах с высокими ставками (медицина, юриспруденция). Но когда решение принимает человек, ответственность чаще ложится на него.

Что влияет на доверие к ИИ?

Объективные факторы доверия к AI обычно сводят к трём категориям:

  1. Доброжелательность — этичность, справедливость, отсутствие предвзятости.
  2. Объективность — прозрачные стандарты, сертификация, государственное регулирование.
  3. Компетентность — устойчивость, надёжность и объяснимость решений.

Однако технические характеристики — лишь часть картины. Контекст взаимодействия (сложность задачи, репутация разработчика) и личностные черты пользователя (экстраверсия, открытость, внутренний локус контроля) играют не менее важную роль.

Например, экстраверты и люди с высоким уровнем открытости доверяют AI больше, но сильнее разочаровываются после его ошибки. При страхе потерять контроль (внутреннем локусе) отдать решения на откуп алгоритму сложнее, а предвзятость реальных людей порой заставляет искать в алгоритмах «объективность».

Разнообразие факторов доверия

Возраст, пол, культура, профессиональная сфера, степень технологического погружения и аналитические способности — всё это влияет на наш личный взгляд на AI. Правил, как относиться к искусственному интеллекту, человечество пока не выработало. Мы пробуем разные модели, адаптируем их под собственные задачи и решаем, что оставить на усмотрение машины, а что лучше сделать самому. И порой… даже женимся на роботах.

 

Источник

Читайте также