Мнение: «Искусственный интеллект» вместо депутатов и чиновников — плохая идея

Почему не стоит мечтать, что ИИ станет ключом к идеальному государству.

В 2021 году Европейский университет провёл соцопрос и выяснил, что больше половины (51%) европейцев согласны заменить депутатов и чиновников на искусственный интеллект с данными о населении. Больше всего эта идея понравилась в Испании (66%), Италии (59%) и Эстонии (56%), а за пределами Европы — в Китае (75%). А отрицательно отреагировали британцы (69%), голландцы (56%), немцы (54%) и американцы (60%).

Замена политиков на мощные компьютеры с ИИ кажется привлекательной, но только на первый взгляд, а на самом деле с этим связано множество проблем. Редактор издания The Next Web Тристан Грин (Tristan Greene) рассказал, почему автоматизация политики — это плохая идея. TJ приводит адаптацию материала.

Примечание: под ИИ в статье имеются в виду системы вроде нейронных сетей и машинного обучения, хотя все они — не настоящий искусственный интеллект, который способен самостоятельно мыслить и создавать новые идеи и решения.

Искусственный интеллект предвзят не меньше людей

Когда люди говорят об ИИ в управлении, они обычно представляют его как «неиспорченную» сущность, которая не лжёт, не имеет тайных целей и предрассудков, полностью объективна и неподкупна. Но это далеко от реальности. Любая система, которая использует машинное обучение и прочие ИИ-технологии, может быть заведомо предвзятой.

Такие системы обучаются на данных, которые готовятся (выбираются) людьми, и эти данные могут просто не отражать реальность в полной мере. Интересы и желания малочисленных групп людей (не говоря уже об отдельных людях) могут остаться «за бортом» — и тогда после обучения ИИ начнёт ещё сильнее дискриминировать меньшинства своими решениями.

Проще говоря, управляющий ИИ может «законсервировать» существующий расклад мнений по различным вопросам, со всеми его недостатками и несправедливостью. Также он, скорее всего, будет игнорировать появление новых групп людей и новых потребностей.

Если же регулярно обучать ИИ всё новыми и новыми данными от голосований и соцопросов, то возникает вопрос: не проще ли решать вопросы методом прямой демократии вместо использования лишней прослойки в виде ИИ?

Искусственный интеллект это «чёрный ящик», который может жульничать

В демократической системе избиратели могут потребовать от политиков объяснений по тому или иному решению, и потребовать отменить это решение. Существующие системы ИИ никаких объяснений давать не способны — они работают по принципу «чёрного ящика». В систему поступают данные и она их как-то обрабатывает. Как именно — сказать не может никто, даже создатели этой системы.

Такой полностью непрозрачный механизм вряд ли будет пользоваться доверием людей. Учёные, работающие над созданием объясняемого ИИ, отмечают: людям необходимо знать, каким образом принимается решение, чтобы понять — соглашаться с ним или нет. Это особенно важно в контексте искусственного интеллекта, потому что он может решать задачу совсем не так, как от него ждут.

Например, одна из ИИ-систем распознавания изображений «узнавала» лошадей на фото совсем не по характерным чертам этих животных. Вместо этого нейросеть искала на изображении значок копирайта, который чаще всего встречался на фотографиях лошадей, и по его наличию делала вывод, что на изображении — лошадь. Из-за этого в её выводах был высок процент ошибок.

Другую систему пытались научить захватывать виртуальные объекты манипулятором. Но ИИ быстро стал жульничать, помещая манипулятор между наблюдателем и объектом так, чтобы создать иллюзию захвата. Создателям системы пришлось добавить визуальные метки на объекты и манипулятор, чтобы наблюдателю было видно, когда ИИ пытается обмануть его.

Искусственный интеллект может сделать ради цели всё что угодно

Даже существующие ИИ бывают очень эффективными в достижении какой-либо цели — например, ставить диагнозы с точностью более 90% или открывать новые химические реакции. Как ни странно, именно эта высокая эффективность может стать основной угрозой для людей со стороны ИИ на политических постах — он способен извратить заложенную в него цель в духе злого джинна из арабских сказок.

На эту проблему обращает внимание оксфордский профессор Ник Бостром, приводя в пример ИИ, который создали для максимально эффективного производства скрепок. Такой ИИ быстро поймёт, что существование человечества угрожает его задаче, потому что люди могут прекратить его работу в любой момент. А тела людей «напрасно расходуют» множество химических элементов, из которых можно было бы сделать скрепки.

Смысл правительств и парламентов не в том, чтобы максимально эффективно решать задачи, а в том, чтобы служить людям. Иначе люди неизбежно превращаются в средство достижения этих целей. Есть сомнения, что машинный интеллект в принципе способен служить людям лучше, чем это могут делать сами люди. Существующие ИИ слишком глупы и непрозрачны для этого.

В будущем люди могли бы создать полноценный ИИ, который способен самостоятельно обучаться, создавать новые идеи и решения. Но непонятно, чем такой ИИ будет отличаться от людей в плане «чистоты» работы на политических постах. Одно из главных свойств интеллекта — способность ставить цели перед собой. Можно ли быть уверенным, что полноценный ИИ поставит перед собой цель честно служить людям?

Люди-политики, какими могущественными бы они ни были, всё же остаются людьми — смертными существами, умеющими сопереживать себе подобным. Будет ли таким же осторожным и эмпатичным полноценный машинный интеллект, которого с людьми ничего не связывает — сказать трудно.

Возможно, поэтому уже сейчас Европа предпринимает шаги по ограничению использования ИИ в госсекторе, а известный энтузиаст науки и технологий Илон Маск считает, что «искусственный интеллект намного опаснее ядерного оружия», и что его нужно контролировать.

#ии #компьютеры #мнения #политика

 

Источник

Читайте также