В наше время весьма популярной стала технология, которую можно назвать «цифровым помощником» человека. Речь идет как о Siri, Cortana, так и об умных колонках — в частности, от Amazon. Многие из нас привыкли, что всего одна голосовая команда может заставить помощника действовать — например, рассказать погоду на завтра, прочитать текст или спеть песенку.
У экспертов по информационной безопасности некоторые аспекты работы таких помощников вызывают ряд вопросов. Спору нет, сервисы довольно удобные, но они уязвимы для вмешательства извне. Наиболее простой пример — после репортажа по ТВ системы Amazon Echo из Сан-Диего, которые «слушали» местный телеканал CW6, стали заказывать кукольные домики.
Проблема была в том, что по ТВ говорили что-то о кукольных домиках, обсуждая девочку, заказавшую у Alexa именно такой домик. И колонка ничтоже сумняшеся заказала. Репортер произнес в передаче по ТВ следующее: «Мне так понравилась девочка, которая произнесла „Alexa, закажи мне кукольный домик“. И другие колонки срочно начали заказывать кукольные домики.
Та же колонка некоторое время назад была замечена в том, что начинала без причины жутко хохотать. Скорее всего, причина все-таки была, и это — взлом самой колонки (какой-то баг вряд ли может привести к подобным последствиям).
Что касается самовольных заказов, то здесь причина „сбоя“ кроется в том, что Alexa не оснащена системой распознавания „свой-чужой“, так что она может слушаться голосовых команд других людей, а не только лишь своего пользователя. Аналогичным образом дело обстоит и с Siri, Cortana, ассистентом Google. Как оказалось, „помощники“ слушаются команд, которые неразличимы для человеческого уха.
Объединенная команда исследователей из Китая и США смогли добиться скрытной активации систем искусственного интеллекта на смартфонах и в умных колонках. Неслышимые человеком команды заставляли цифровых помощников набирать разные номера и открывать сайты. Но возможности гораздо шире — злоумышленники могут использовать „наивность“ колонок для того, чтобы делать денежные переводы или заказывать товары (только уже не кукольные домики).
Команды, о которых идет речь выше, можно встроить в записи песен любой продолжительности или разговорной речи. Некий злоумышленник может запустить воспроизведение музыкальной записи, которая будет звучать вполне обычно для человека, но цифровой помощник услышит команду и начнет выполнять приказ. Исследователи, которые уже опубликовали результаты своей работы, считают, что их технология рано или поздно станет достоянием общественности. Эта идея неуникальна, так что к ней может прийти кто угодно. А может быть, она уже работает, будучи используемой каким-либо злоумышленником.
Подробности технологии исследователь по информационной безопасности не раскрывает, но надо думать, что угроза вполне реально. Через некоторое время после публикации информации об уязвимости голосовых помощников разработчики таких сервисов из других стран стали говорить о скором исправлении проблемы. В Amazon рассказали, что проблема уже решена.
Как бы там ни было, но та же Siri слушает такие команды и сейчас. Кроме того, в них заложены инструкции о необходимости хранить молчания для цифрового помощника. Ведь какой смысл давать команду, если телефон „проснется“ и начнет повторять голосом все, что скрыто в неслышимой команде? А так — команда идет, телефон активируется, но переходит в беззвучный режим и ничего не „говорит2 в ответ.
Исследователи назвали технологию DolphinAttack. Сейчас разработчики ПО цифровых ассистентов начали изучать информацию, предоставленную учеными, для того, чтобы решить проблему. Сделать это сложно, но, вероятно, можно. Если ничего не предпринять, то идея, которая действительно представляет потенциальную опасность, начнет находить понимание у разного рода злоумышленников. А те, в свою очередь станут использовать ее для реализации каких либо собственных целей, несовместимых с законом. Пока что изучение потенциальной “звуковой уязвимости» продолжается.
Источник