Опасения в отношении искусственного интеллекта становятся всё более реальными и менее напоминают сюжет из Голливуда. Исследование Цюрихского университета, в котором приняли участие свыше 10 000 респондентов из США и Великобритании, выявило, что людей больше тревожат насущные проблемы, такие как автоматизация рабочих процессов или предвзятость алгоритмов при найме, чем гипотетические «восстания машин». Это подчеркивает отличие общественного восприятия ИИ от распространенной в средствах массовой информации идеи о нём как о неконтролируемой и угрожающей человечеству силе.
Учёные провели три обширных эксперимента, в ходе которых участникам предлагалось оценить разнообразные типы рисков — от катастрофических сценариев до повседневных вызовов, таких как распространение фейковых новостей с использованием нейросетей или медицинские ошибки, возникшие из-за неточностей в диагностических системах. Выяснилось, что даже ознакомившись с апокалиптическими прогнозами, люди сохраняли повышенную настороженность по отношению к актуальным угрозам. «Люди остаются бдительными, — объясняет политолог Фабрицио Жиларди, один из ведущих авторов исследования. — Они прекрасно различают то, что может случиться через полвека, и то, что влияет на их жизнь в данный момент».

Парадоксально, но общественные дебаты часто фокусируются на дальних угрозах, словно игнорируя проблемы, с которыми мы сталкиваемся ежедневно. Например, алгоритмы, определяющие кредитоспособность или подбирающие контент в социальных сетях, могут усиливать социальное неравенство — но об этом говорят значительно реже, чем о гипотетическом «восстании ИИ». Однако, согласно исследованию, такой медиапоиск дисбаланса не мешает людям самостоятельно определять приоритеты. «Беспокойство по поводу текучих рисков остаётся устойчивым, даже если футуристические прогнозы доминируют в обсуждении», — подчеркивает соавтор исследования Эмма Хоэс.
Исследователи убеждены, что эти данные помогут пересмотреть контекст разговора о ИИ. Вместо акцента на противопоставлении «близких» и «далёких» угроз, они предлагают оценивать их комплексно, как части единой системы. К примеру, разработка этических стандартов для «умных очков», способных распознавать эмоции, подразумевает не только защиту конфиденциальности сегодня, но и прогнозирование долгосрочных последствий для социума.
Прогнозируя будущее, авторы указывают на то, что рост осведомленности о текущих рисках может ускорить введение регуляторных мер, таких как обязательная проверка ИИ-систем на наличие предвзятостей перед их внедрением. В то же время дискуссия о будущем искусственного интеллекта, вероятно, станет более содержательной и сосредоточится на анализе конкретных сценариев — от автоматизации до кибербезопасности. Как заключает Жиларди, «технологии развиваются быстрее, чем наши страхи — и это возможность направить их прогресс в интересах человека».
Источник: iXBT