Искусственный интеллект – это подвижная мишень. И вот, как лучше в неё прицелиться.
Кажется, что искусственный интеллект (ИИ) окружает нас со всех сторон. Мы сталкиваемся с ним дома и в телефоне. Мы и опомниться не успеем – если верить предпринимателям и бизнес-инноваторам – как ИИ будет присутствовать практически во всех продуктах и услугах, которые мы покупаем и используем. Кроме того, область его применения к решению бизнес-задач растёт как на дрожжах. В то же самое время растут и сомнения по поводу последствий появления ИИ; мы беспокоимся о том, как повлияет автоматизация на рабочее место, наличие работы и общество.
Иногда реальность теряется между страхами и триумфами заголовков, рассказывающих о Alexa, Siri и AlphaGo, поскольку у ИИ-технологий – у машинного обучения и его подмножества, глубинного обучения – есть множество ограничений, на преодоление которых потребуется потратить ещё очень много сил. В этой статье описаны подобные ограничения, и она должна помочь директорам лучше понять, что именно затормаживает их попытки внедрения ИИ. Также мы опишем многообещающие прорывы, направленные на снятие некоторых ограничений и создание новой волны возможностей.
Наши перспективы зависят от комбинации работы на переднем крае – исследований, анализа, оценки сотен реальных случаев использования – и совместной работы с некоторыми передовыми мыслителями, учёными и инженерами, работающими на передовых участках, связанных с ИИ. Мы попытались извлечь суть их опыта и помочь директорам предприятий, которые, как показывает наш опыт, часто руководствуются только собственной инициативой и не всегда хорошо понимают, где находится передний край или что уже доступно для ИИ.
Проще говоря, проблемы и ограничения ИИ создают для лидеров проблему «подвижной мишени»: им сложно добраться до передового края, поскольку тот постоянно передвигается. Также часто разочарование наступает, когда попытки использования ИИ натыкаются на барьеры реального мира – это может уменьшить мотивацию к дальнейшим инвестициям или привести к появлению точки зрения «поживём-увидим», в то время как остальные будут продолжать рваться вперёд. Недавнее исследование Всемирного института Маккинзи показывает, что между лидерами и отстающими в вопросе применения ИИ растёт разрыв – и это видно и в сравнении разных индустрий, и внутри каждой из них (экспонат 1).
Экспонат 1: лидеры применения ИИ в недалёком будущем собираются вложиться в него ещё больше. По вертикали: оценка повышения трат на ИИ в % в ближайшие три года; по горизонтали: процент компаний, уже использующих ИИ
Директора, пытающиеся сократить разрыв, должны иметь возможность информировано работать с ИИ. Иначе говоря, им нужно понять, не только в каких областях ИИ может подстегнуть инновации, идеи и принятие решений, привести к росту прибыли и эффективности – но и где ИИ пока ещё не способен помочь. Более того, они должны принять взаимосвязь и различия между техническими и организационными ограничениями – культурные барьеры, недостаток персонала, способного создавать готовые ИИ-решения для бизнеса, и проблему «последней мили» встраивания ИИ в продукты и процессы. Если вы хотите стать лидером, понимающим некоторые из критических технических проблем, замедляющих прогресс ИИ, и готовым воспользоваться многообещающими разработками, способными преодолеть эти ограничения и в потенциале изменить траекторию развития ИИ – продолжайте читать.
Проблемы, ограничения и возможности
Полезной точкой отсчёта будет понять недавние успехи технологий глубинного обучения (ГО). Это, вероятно, наиболее захватывающие разработки в области ИИ, и они добились взрывного увеличения эффективности в вопросах классификаций и предсказаний, без традиционного обучения под присмотром. ГО использует крупномасштабные нейросети, способные содержать в себе миллионы симулированных «нейронов», распределённых по слоям. Наиболее распространённые варианты сетей называются свёрточные нейронные сети (СНС) и рекуррентные нейронные сети (РНС). Эти нейросети обучаются, используя тренировочные данные и алгоритмы обратного распространения.
Хотя в этой области достигнут впечатляющий прогресс, сделать ещё предстоит многое. Критический момент – подстроить ИИ к определённой задаче и доступным данным. Поскольку эти системы не программируются, а тренируются, различные процессы их работы для точного выполнения сложных задач часто требуют огромного количества помеченных данных. Получение крупного набора данных может оказаться сложным делом. В некоторых областях их просто может не быть, но даже если они есть, на простановку меток может уйти огромное количество человеческих ресурсов.
Кроме того, в этих моделях может быть сложно расшифровать, каким образом математическая модель, натренированная при помощи ГО, приходит к определённому предсказанию, рекомендации или решению. Полезность чёрного ящика, пусть он даже выполняет своё предназначение, может оказаться ограниченной, особенно в тех случаях, когда его предсказания или решения влияют на сообщество и имеют последствия, связанные со здоровьем человека. В таких случаях пользователю часто нужно знать «почему» – например, как именно алгоритм пришёл к таким рекомендациям – если его действия могут иметь юридические или регуляторные последствия. Почему определённые факторы, а не какие-то другие, оказались критичными в данном случае.
Давайте изучим пять связанных между собой факторов, в которых эти ограничения и появляющиеся варианты их обхода начинают играть свою роль.
Ограничение 1: разметка данных
Большая часть современных ИИ-моделей тренируется при помощи «контролируемого обучения». Это значит, что люди должны пометить и разбить на категории исходные данные – а такая работа может оказаться трудной и подверженной ошибкам. К примеру, компании, разрабатывающие робомобили, нанимают сотни людей, вручную размечающих многие часы видеозаписей, чтобы помочь тренировке этих систем. В то же время появляются новые многообещающие технологии – например, потоковый контроль (продемонстрирован Эриком Хорвицем с коллегами из Microsoft Research), в котором данные можно помечать в процессе естественного использования. Неконтролируемый или частично контролируемый подходы уменьшают необходимость в получении крупных размеченных наборов данных. Две перспективные техники – обучение с подкреплением и генеративно-состязательная сеть.
Обучение с подкреплением. Эта техника неконтролируемого обучения позволяет алгоритмам обучаться просто методом проб и ошибок. Методология использует метод кнута и пряника: за каждую попытку выполнения задачи алгоритм получает вознаграждение (например, высокую оценку) если его поведение оказалось успешным, или наказание – в ином случае. С ростом количества повторов растёт и эффективность, и во многих случаях она превосходит возможности человека – пока среда обучения соответствует реальному миру.
Обучение с подкреплением знаменито использованием при обучении компьютеров компьютерным играм – недавно в эту схему встроили и ГО. В мае 2017 года, к примеру, это помогло ИИ-системе AlphaGo обыграть чемпиона мира Кэ Дзэ в игру го. В качестве другого примера Microsoft начала предоставлять услуги, пользующиеся обучением с подкреплением и адаптирующиеся к предпочтениям пользователей. Потенциальное применение обучения с подкреплением подходит для различных типов предприятий. Среди возможностей: торговля ценными бумагами с помощью ИИ, который приобретает или теряет очки за приобретение или утерю финансов; движок рекомендаций продуктов, получающий очки за каждую продажу, сделанную по рекомендации; ПО, строящее маршруты для грузоперевозок, получающее награду за сделанные вовремя доставки или уменьшение потребления топлива.
Обучение с подкреплением также может помочь ИИ превзойти естественные и социальные ограничения разметки человеком, разработав решения, до которых прежде никто не додумался, и стратегии, использование которых не приходило в голову даже опытным игрокам. Недавно, к примеру, система AlphaGo Zero, используя обучение с подкреплением нового типа, победила своего предшественника AlphaGo, научившись играть в го с нуля. Это значило начать с совершенно случайной игры с самой собой, вместо того, чтобы тренироваться на партиях, сыгранных людьми и с людьми.
Генеративно-состязательные сети (ГСС). В этой модели обучения с частичным контролем две сети соревнуются друг с другом за улучшение и уточнение их понимания некоей концепции. К примеру, чтобы распознать, как выглядят птицы, одна сеть пытается найти различия между настоящими и поддельными изображениями птиц, а её конкурент пытается обмануть её, выдавая картинки, очень похожие на изображения птиц, но таковыми не являющиеся. Когда у двух сетей начинаются ничьи, репрезентация птицы у каждой модели становится более точной.
Способность ГСС выдавать всё более правдоподобные примеры данных может значительно уменьшить необходимость в разметке наборов данных людьми. К примеру, для тренировки алгоритма распознавания опухолей на медицинских изображениях обычно потребовались бы миллионы размеченных людьми изображений, где были бы указаны типы и этапы развития опухоли. Используя ГСС, натренированную выдавать всё более реалистичные изображения различных типов опухолей, исследователи могут тренировать алгоритм распознавания опухолей, комбинирующий куда как меньшую базу размеченных людьми данных с выходными данными от ГСС.
И хотя использование ГСС для постановки точных диагнозов заболеваний ещё далеко от реализации, исследователи уже начинают использовать ГСС во всё более сложных контекстах. Сюда входят: понимание и производство произведений искусства в стиле определённого художника; использование изображений со спутников и распознавания географических особенностей для создания актуальных карт быстро развивающихся территорий.
Ограничение 2: получение массивных тренировочных наборов данных
Уже было показано, что простые технологии ИИ, использующие линейные модели, в некоторых случаях могут приблизиться к возможностям экспертов по медицине и в других областях. Текущая волна машинного обучения, однако, требует тренировочных наборов данных – не только размеченных, но и больших по количеству, а также всеобъемлющих. Методы ГО требуют тысяч записей для составления относительно неплохих моделей, способных на классификацию, а в некоторых случаях – и миллионов записей для того, чтобы приблизиться к уровню человека.
Сложность состоит в том, что такие массивные наборы данных может быть сложно получить или создать во многих коммерческих случаях. Каждое небольшое изменение в поставленной задаче может потребовать другого крупного набора данных и новых тренировок. К примеру, обучение автономного средства передвижения движению по горнодобывающему участку, где часто сменяется погода, может потребовать набора данных, включающего в себя различные условия окружающей среды, с которыми может встретиться машина.
Техника обучения за один раз (one-shot learning) способна уменьшать потребности в крупных наборах данных и позволять модели ИИ обучаться особенностям объекта на небольшом количестве реальных демонстраций или примеров (в некоторых случаях, даже на одном). Возможности ИИ приблизятся к человеку, способному достаточно точно распознавать различных представителей одной категории после того, как он познакомится только с одним примером – допустим, с одним грузовиком-пикапом. В этой методологии, пока ещё находящейся в стадии разработки, учёные сначала предварительно тренируют модели в симулированной виртуальной реальности, в которой существуют варианты задачи, или, в случае распознавания образов – изображение объекта. Затем, после того, как модели продемонстрируют несколько вариантов объекта в реальном мире, которых ИИ не видел в виртуальной реальности, тот будет использовать уже имеющиеся знания для выработки правильного решения.
Такого рода обучение с одного раза может в результате помочь создать систему, сканирующую тексты на предмет нарушения авторских прав или распознающую корпоративный логотип в видеоролике, после знакомства всего с одним его примером. Сегодня подобные приложения находятся в своей ранней стадии. Но их польза и эффективность могут быстро расширить возможности использования ИИ в различных индустриях.
Ограничение 3: проблема объяснимости
Объяснимость – не новая проблема для ИИ-систем. Но она растёт вместе с успехами и принятием ГО, из-за которого увеличивается не только разнообразие приложений, но и их непрозрачность. Чем больше и сложнее модель, тем труднее объяснить в человеческих понятиях, почему было принято то или иное решение (это сделать ещё сложнее, если всё происходит в реальном времени). Это одна из причин, по которым использование некоторых инструментов ИИ не так сильно расширяется в тех областях, где объяснимость полезна или даже необходима. Более того, с расширением областей применения ИИ требования регуляторов также могут повысить необходимость в моделях ИИ с большим уровнем объяснимости.
Два зарождающихся многообещающих подхода к увеличению прозрачности моделей – это локально-интерпретируемые моделе-агностические объяснения (local-interpretable-model-agnostic explanations, LIME) и техники внимания (экспонат 2). LIME пытается определить, на каких частях входных данных в основном основывает свои расчёты натренированная модель, чтобы выработать промежуточную, интерпретируемую модель. Эта техника рассматривает по нескольку сегментов данных за раз и наблюдает за тем, как меняются результаты предсказаний, чтобы подстроить промежуточную модель и выработать более точную интерпретацию (к примеру, исключая глаза вместо носа, чтобы проверить, что из них более важно для распознавания лиц). Техники внимания визуализируют те части входных данных, на которые в основном полагается модель при принятии определённого решения (например, концентрируясь на рту, чтобы определить, изображён ли на картинке человек).
Экспонат 2
Ещё одна технология, использующаяся уже некоторое время – это обобщённые аддитивные модели (ОАМ). Используя модели с одной особенностью, ОАМ ограничивают взаимодействие особенностей, в результате чего каждая из них становится более интерпретируемой для пользователей. Ожидается, что взятие на вооружение этих и других технологий, стремящихся снять завесу таинственности с ИИ, очень сильно поможет увеличить применение ИИ.
Ограничение 4: обобщаемость обучения
В отличие от людей, модели ИИ с трудом переносят свой опыт с одного набора обстоятельств на другой. По сути, всё, чего достигла модель в определённом случае применения, остаётся применимым только к этому случаю. В результате компаниям приходится постоянно тратить ресурсы на тренировку очередной модели, хотя задачи по их применению очень похожи.
Один многообещающий ответ на этот вызов – переносимое обучение. В этом подходе ИИ модель тренируют на решение определённой задачи, а затем быстро применяют это обучение к похожей, но отличающейся работе. Исследователи из DeepMind продемонстрировали подающие надежды результаты с переносом обучения в экспериментах, в которых тренировки с использованием виртуальной реальности переносились на управление реальными роботизированными конечностями.
Переносимое обучение и другие обобщаемые подходы развиваются, и они могут помочь организациям быстрее создавать новые способы применения и добавлять к существующим и работающим методам новую функциональность. К примеру, при создании виртуального помощника, переносимое обучение может обобщить предпочтения пользователей из одной области (допустим, музыки) к другой (допустим, к книгам). Примеры использования не ограничиваются цифровыми продуктами. Переносимое обучение может помочь, например, нефтегазовой компании расширить использовании ИИ-алгоритмов, натренированных на предсказательное обслуживание скважин, на другое оборудование – например, на трубопроводы и бурильные платформы. Переносимое обучение даже в принципе способно произвести революцию в бизнес-аналитике: представьте себе ИИ-инструмент, анализирующий данные, и понимающий, как оптимизировать прибыль авиалиний, способный адаптировать свою модель к изменениям в погоде или местным экономикам.
Другой подход – использование чего-либо, приблизительно описывающего обобщённую структуру, в применении к различным проблемам. Например, AlphaZero от компании DeepMind использовала одну и ту же структуру для трёх разных игр: оказалось возможным при помощи этой обобщённой структуры натренировать модель игре в шахматы за один день, чтобы потом она выиграла у программы-чемпиона мира.
Наконец, представьте возможности нарождающихся техник метаобучения, пытающихся автоматизировать разработку моделей машинного обучения. К примеру, команда Google Brain использует AutoML для автоматизации разработки нейросетей для классификации изображений на крупномасштабных наборах данных. Сегодня эти техники работают так же хорошо, как разработанные людьми. Эта разработка выглядит многообещающе, особенно в связи с тем, что многие организации испытывают дефицит талантливых работников. Также возможно, что метаобучение превзойдёт возможности человека и улучшит результаты. Важно понимать, что эти технологии пока находятся на ранних стадиях развития.
Ограничение 5: предвзятость данных и алгоритмов
Пока мы фокусировались на ограничениях, которые можно преодолеть техническими методами, уже находящимися в разработке, некоторые из которых мы описали. Предвзятость – это проблема другого рода. Потенциально разрушительные социальные последствия могут ожидать нас, когда человеческие пристрастия (сознательные или бессознательные) будут определять, какие данные использовать, а какие игнорировать. Более того, когда процесс и частота сбора данных разнятся в зависимости от различных групп и поведения, можно ожидать возникновения проблем с тем, как алгоритмы будут анализировать эти данные, обучаться на них и делать предсказания. Среди неблагоприятных последствий: решения о найме сотрудников, сделанные на основе дезинформации, искажённые научные или медицинские прогнозы, неверные финансовые модели и решения по криминальным делам, и неправильные юридические решения. Во многих случаях эта предвзятость остаётся необнаруженной или проигнорированной под соусом «передовой науки о данных», «патентованных данных и алгоритмов» или «объективного анализа».
Развёртывая машинное обучение и ИИ-алгоритмы в новых областях, мы можем столкнуться с новыми проявлениями этих проблем с предвзятостью, возникающих в наборах данных и алгоритмов. И они обычно так и остаются там, поскольку для того, чтобы их распознать и предпринять шаги по их устранению, необходимо глубоко разбираться как в технологиях работы с данными, так и в существующих социальных взаимодействиях, включая и сам процесс сбора данных. В целом, предвзятость – одно из самых сложных препятствий, и однозначно самое социально обременительное.
Сейчас идёт множество исследований, как теоретических, так и собирающих данные по наилучшим методам использования ИИ, пытающихся решать описанные проблемы в академической, некоммерческой и частной областях. И давно пора – эта проблема, скорее всего, будет становиться всё более критичной, и поднимать всё больше вопросов. Рассмотрим, к примеру, тот факт, что множество из этих предсказательных подходов, основанных на обучении и статистике, негласно предполагают, что будущее похоже на прошлое. А что мы будем делать в социально-культурном окружении, когда предпринимаемые нами действия будут изменять его – а где принятие решений на основе прошлого поведения может затормозить прогресс (или, что ещё хуже, выработать сопротивление переменам)? Множество лидеров, включая и бизнес-лидеров, вскоре могут столкнуться с необходимостью поиска ответов на такие вопросы.
Как попасть в движущуюся мишень
На появление решений для описанных ограничений и распространение коммерческой реализации указанных здесь передовых разработок могут уйти годы. Но захватывающий спектр возможностей, связанных с использованием ИИ, говорит о том, что самым главным ограничением ИИ может оказаться воображение. Вот несколько советов для лидеров, старающихся быть на переднем крае, или, хотя бы, не отстать от передовых тенденций.
Изучайте новую информацию, подстраивайтесь, не отставайте.
Хотя большинству директоров предприятия не обязательно знать разницу между свёрточными и рекуррентными нейронными сетями, вам необходимо быть в общем знакомым с возможностями современных инструментов, обладать общим ощущением того, когда в краткосрочной перспективе могут произойти прорывы, и видеть перспективы того, что лежит за горизонтом. Опрашивайте ваших экспертов по данным и машинному обучению, поговорите с пионерами ИИ, чтобы подстроиться под современные знания, посетите пару конференций по ИИ, чтобы получить информацию о реальных фактах; новостные статьи могут быть полезными, но могут и оказаться частью шумихи. Ещё один хороший способ не отставать от новых разработок – исследования, проводимые знающими специалистами, такие, как AI Index (проект группы «Столетнее исследование ИИ» из Стэнфорда).
Начните использовать сложную стратегию работы с данными.
ИИ-алгоритмам требуется помощь в раскрытии новых идей, таящихся в данных, создаваемых вашей системой. Им можно помочь, разработав всеобъемлющую стратегию по работе с данными, концентрирующуюся не только на технологиях, необходимых для сбора данных с отдельных систем, но и на доступности данных, системе их получения, разметке и управлении. И хотя новые технологии обещают уменьшить количество данных, необходимых для тренировки ИИ-алгоритмов, контролируемое обучение, требующее больших объёмов данных, до сих пор остаётся преобладающей технологией. И даже технологиям, нацеленным на минимизацию требуемого объёма данных, всё равно нужны какие-то данные. Поэтому ключевым моментом всего это будет точное знание ваших собственных данных и то, как их лучше всего использовать.
Мыслите нестандартно.
Техники по переносу обучения пока находятся в зачаточном состоянии, но всегда есть возможность добиться решения с помощью ИИ в нескольких областях, а не только в одной. Если вы решили такую задачу, как предсказательное обслуживание оборудования на большом складе, можно ли применить подобное решение к потребительским продуктам? Можно ли использовать эффективные подсказки «что ещё купить» в нескольких каналах распространения продукта? Поощряйте отделения компании делиться друг с другом знаниями, которые могут раскрыть способы использования лучших ИИ-решений и идей в нескольких областях вашей компании.
Станьте новатором.
Просто не отставать от современных ИИ-технологий и примеров использования не достаточно для того, чтобы оставаться конкурентоспособным в долгосрочной перспективе. Убедите ваших специалистов по обработке данных или договоритесь со сторонними экспертами на решение полезной задачи при помощи зарождающихся технологий – таких, например, которые были упомянуты в этой статье. Постоянно узнавайте о том, что можно сделать и что стало доступным. Многие инструменты машинного обучения, наборы данных и модели, натренированные для стандартного применения (включая речь, зрение и распознавание эмоций) уже доступны для широкого пользователя. Иногда они доступны в виде проектов с исходным кодом, в других случаях – через программные интерфейсы (API), созданные передовыми исследователями и компаниями. Следите за этими возможностями, они могут помочь вам заметить преимущества для первопроходцев.
Перспективы ИИ огромны, а технологии, инструменты, и процессы, требуемые для претворения этих обещаний в жизнь, пока ещё не полностью готовы. Если вы думаете, что можете подождать, дать технологии полностью оформиться, а потом успешно воспользоваться ею одним из первых – подумайте заново. Очень сложно совершить прыжок из стоячего положения, особенно если цель движется очень быстро, а вы не понимаете, что могут и чего не могут делать современные технологии ИИ. И пока исследователи и пионеры в области ИИ подготовились к решению самых острых из сегодняшних проблем, пора начинать понимать, что происходит на переднем крае ИИ, чтобы вы смоли правильно настроить свою организацию, и помочь ей обучиться новым возможностям, использовать их и может даже продвигать их дальше.
Источник