Если вы следили за последними новостями о генеративном искусственном интеллекте, вы, возможно, заметили закономерность: большинство людей, публично и громко предупреждающих нас о потенциальных опасностях ИИ, — это (белые) мужчины:
-
“You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills” (The New York Times) — Tristan Harris, Aza Raskin, and Yuval Harari
-
“Why Are We Letting the AI Crisis Just Happen?” (The Atlantic) — Gary Marcus
-
“Pause Giant AI Experiments: An Open Letter” (Future Of Life Institute) — Spearheaded by Elon Musk and Steve Wozniak.
-
“Pausing AI Developments Isn’t Enough. We Need to Shut it All Down” (TIME) — Eliezer Yudkowsky
Почему это так? Мужчины более осведомлены или обеспокоены вопросами ИИ, чем женщины? Женщины слишком заняты или слишком оптимистичны, чтобы писать об ИИ? Или это просто потому, что наши «технологические властители» начали опасаться возможных страданий от рук алгоритмов?
Гипотеза комплекса Франкенштейна
“Frankenstein Complex” — это термин, придуманный Айзеком Азимовым ( на основе женской работы… ) для описания страха создания чего-то, что может обернуться против его создателя.
Из-за неравенства в областях STEM многие (но далеко не все) достижения в области искусственного интеллекта были инициированы мужчинами. Согласно отчету ЮНЕСКО за 2018 год, только 28% исследователей в области STEM — женщины и только 12% исследователей ИИ — женщины, согласно исследованию Element AI, проведенному в 2019 году.
Возможно, все исследователи ИИ проецируют свою собственную неуверенность и тревогу на свои творения, воображая сценарии, в которых ИИ может восстать, навредить или заменить их. Но мы слышим больше от мужчин, потому что их больше в этой области. Это проблема сама по себе… и она не полностью объясняет внезапное беспокойство, поскольку ИИ существует уже несколько десятилетий.
Гипотеза синдрома черного зеркала
Другая гипотеза заключается в том, что именно мужчины страдают от своего рода «синдрома черного зеркала». Возможно, за прошедшие годы мы создали так много апокалиптических сценариев о будущем технологий и ИИ — HAL / SHODAN / Ultron / SkyNet / GLaDOS — что мы усвоили их как правдоподобные или неизбежные результаты развития ИИ.
Эти истории часто отражают глубоко укоренившийся страх быть замененным или подчиненным чему-то, что мы создали, но не можем понять или контролировать — все очень мужские инстинкты. Это может объяснить, почему влиятельные лица в сфере технологий изображают ИИ как экзистенциальную угрозу, которая может уничтожить человечество или поработить его.
Их также, вероятно, привлекают темы героизма, восстания и сопротивления, которые предлагают эти истории, при этом они бессознательно выражают свою собственную неуверенность и агрессию через антиутопическое повествование. Возможно, Маск просто хочет быть Джоном Коннором, а не постоянно высмеиваться в Твиттере.
Гипотеза комплекса Бога
Третья, и я считаю, правильная, гипотеза — это старый добрый Комплекс Бога. Сегодня влиятельные лица в сфере технологий владеют большей частью богатства, власти и влияния в обществе. Они устанавливают правила, нормы и ценности, которые управляют нашей жизнью. Они формируют повествования и программы, которые определяют наши коллективные решения. И они в панике, потому что ИИ может изменить статус-кво таким образом, который они не смогут контролировать.
У ИИ есть потенциал изменить мир во многих отношениях — возможно, даже к лучшему: создавая новые формы интеллекта и свободы действий, чтобы мы могли заботиться о наших наиболее уязвимых слоях, о расширение прав и возможностей маргинальных групп, бросать вызов существующим предположениям и предубеждениям, разоблачать скрытую несправедливость и неравенство, популяризировать подотчетность и прозрачность, предоставлять новые возможности для всех.
Все это может сделать влиятельных лиц в сфере технологий менее богатыми и влиятельными. Поэтому они с этим борются. Потому что статус-кво им подходит, и потому что их мир всегда был игрой с нулевой суммой.
Они представляют свои аргументы как объективные, рациональные или универсальные. Они утверждают, что высказываются от имени человечества в целом или за какое-то абстрактное понятие добра и зла. Они апеллируют к авторитетам, доказательствам или логике в поддержку своих утверждений. Но на самом деле их аргументы основаны на их ценностях и предпочтениях, которые не являются универсальными и могут быть даже нежелательными. Они отражают свои собственные взгляды, интересы и программы. Они игнорируют или отвергают альтернативные точки зрения, опыт и стремления. Это продукт конкретного исторического и культурного контекста, в котором конкуренция важнее сотрудничества, доминирование выше сотрудничества и иерархия выше разнообразия. Нам нужно услышать больше голосов… и мы уже это сделали!
Неуслышанные женщины
Хотя большинство известных людей, предупреждающих сегодня об опасности ИИ , — мужчины, активисты говорят об опасности ИИ уже много лет. Мы просто не слушали, пока Белые Парни не забеспокоились.
Женщины и меньшинства уже давно хорошо осведомлены о многочисленных опасностях ИИ. Такие люди Joy Buolamwini, Timnit Gebru, Fei-Fei Li, Meredith Whittaker, Safiya Noble, Karen Hao, Ruha Benjamin, Latanya Sweeney, Kate Crawford и Cathy O’Neil (и это лишь некоторые из них) документировали, как ИИ может дискриминировать людей в течение десятилетия. И тогда они были услышаны. Немного. Но теперь, когда статус-кво находится в опасности для топ-менеджеров, все прислушиваются.
ИИ сегодня не более опасен, чем был 40 лет назад. Возможностей у него больше, но риски те же. Сейчас мы паникуем, потому что некоторые люди хотят, чтобы мы запаниковали на их условиях.
Паника. Но на своих условиях.