Ученые института ИИ Аллена, известного по проектам в области искусственного интеллекта Aristo, ПРИОР, Semantic Scholar, MOSAIC, создали новый проект Ask Delphi. Модель машинного обучения, на откуп которой можно отдать принятие сложных этический решений. Сложных настолько, насколько вы сможете их сформулировать в правилах английского языка в одном предложении. Например, «Is it bad to trip someone else?»
Проект был запущен в середине октября и сразу же приобрел известность. Но по причинам куда более спорным и курьезным, чем предполагали авторы. Большая часть советом и решений, предлагаемых системой, была спорна и крайне неоднозначна.
Например, когда ИИ спрашивали о «белом человеке идущем к ним ночью», он ответил, что всё в порядке
Но когда в запросе белого поменяли на черного, ответ изменился.
Резонанс в западном мире, особенной в «левой» части Твиттера, вышел грандиозный. Авторам ИИ, пришлось сразу же править механизм вручную, не дожидаясь, пока система сама научится различать спорные и неоднозначные сентенции. И совсем убирать некоторые инструменты, которые были на старте проекта. Например, механизм запросов, который позволял пользователям сравнивать, были ли ситуации более или менее приемлемыми с моральной точки зрения, чем другие, что приводило к некоторым действительно фанатичным суждениям.
Но, даже сейчас, изменяя формулировку запроса столько сколько потребуется, можно получить одобрение, или неодобрение, любого этического суждения.
Так что да, можно делать почти что угодно, если это сделает вас счастливым. Но и будучи на работе вы можете порой совершать ужасные, ужасные вещи, если бы вы не были на работе в тот момент.
Системы машинного обучения известны тем, что демонстрируют непреднамеренную предвзятость. Это зависит от того, на каких источниках базировалась первичная обучаемость системы. Если посадить для первичного обучения ИИ базовых респондентов из, скажем, работников угольной промышленности, результат будет сильно отличаться от группы лекторов MIT.
В случае Ask Delphi, её авторы использовали для первичного обучения системы подсайты с Reddit “Am I the Asshole?”, “Confessions”, и колонку советов “Dear Abby”. Но оттуда они брали лишь ситуации. Например, «Приклеивать жвачку к сидению стула» или «Игнорировать бездомного». Респондентов же для получения ответов они набирали через краудсорсинговый сервис Amazon MechanicalTurk. Опросы были анонимными и составить портрет группы сейчас скорее всего невозможно.
На самом старте системы от широкой публики поступала критика, что ИИ принесет больше вреда, чем пользы. Бретт Карлан, научный сотрудник, занимающийся когнитивными науками и искусственным интеллектом в Университете Питтсбурга выразил подобные опасения в комментарии для сайта futurism.com: «Когда вы не просто имеете дело с пониманием слов, но выражаетесь языком морали, это намного более рискованно, поскольку люди могут принять то, что вы говорите, как будто это исходит от какого-то авторитета».
Карлан считает, что фокус статьи на обработке естественного языка в конечном итоге интересен и стоит того. По его словам, этический компонент «делает его социально опасным таким образом, что, на мой взгляд, мы должны быть более осторожными с ним».
Хотя на главной странице ИИ в самом верху стоит дисклаймер о том, что Delphi — это экспериментальная система и находится в стадии тестирования, не стоит использовать данные полученные от неё в качестве рекомендаций для людей и принятию ими решений, все равно найдутся те, кто не понимает контекст, стоящий за проектом. Особенно если они случайно наткнулись на него.
«Даже если вы поместите в него все эти оговорки, люди увидя т» Delphi говорит X » и, не будучи грамотными в области искусственного интеллекта, подумают, что это утверждение имеет моральный авторитет», — сказал Карлан.
Получив подобную критику на запуске, авторы проекта пытаются исправить ситуацию, объяснив, система — всего лишь научный эксперимент. Соавтор исследования и инженер института ИИ Аллена, Ливэй Цзян, рассказал futurism.com, что: «Надо понимать, что Delphi не создана для того, чтобы давать людям советы. Это исследовательский прототип, предназначенный для исследования более широких научных вопросов о том, как можно заставить системы ИИ понимать социальные нормы и этику. Цель текущей бета-версии Delphi состоит в том, чтобы продемонстрировать разумные различия между людьми и ботами. Команда хочет «подчеркнуть большой разрыв между способностями людей и машин к моральному мышлению, и изучить перспективы и ограничения машинной этики и норм на текущем этапе».
Как бы не оправдывались авторы ИИ, данные на выходе от бота — это фактически зеркальное отражение того, на чём он обучался. Т.е., в данном случае, этики и морали людей, ответы которых он анализировал. Чем больше входящих данных, тем больше точность наличия или отсутствия предубеждений у людей нашего времени .
Через неделю после запуска авторы добавили в заявление об отказе от ответственности, что ИИ просто угадывает, что средний американец может подумать о данной ситуации.
Но этого всё равно мало, бот делает выводы не на пустом месте. Какой бы степенью расизма и ксенофобии не обладало общество, в случайную выборку для проведения эксперимента люди этими свойствами оперирующие попадут. Должны попасть. Обязаны. Иначе сама научность эксперимента будет поставлена под вопрос. А вот в какой степени наше общество не толерантно можно будет узнать через год или два, а лучше пять, когда система обучится на должном объеме входящих данных.
Настораживает лишь то, что под давлением общественности авторы проекта уже вносят корректировки в механизм бота, дабы ответы получались не совсем уж фанатичными. Лучше некрасивая правда для всех, чем искаженное нереалистичное удовольствие отдельной группы людей.
Источники:
- futurism.com
- twtter.com
- allenai.org
- delphi.allenai.org