Думаю, что сегодня уже все слышали про технологии VR, AR и возможно даже про MR и XR. Далеко не каждый пробовал эти технологии, поэтому революция в сфере носимых устройств еще впереди. Сегодня я поделюсь своими идеями о том, почему схема взаимодействие с системой во многом более важно чем сама система и как нам разработать идеальный интерфейс не только для MR, но и для управления жизнью.
Если внимательно присмотреться к поведению человека во время использования устройств, то можно заметить множество паттернов поведения, которые постоянно применяются для достижения различных целей. Возьмем персональный компьютер и увидим простые действия мышью, подсознательный набор клавиш и комбинации из действий между ними например для быстрого переключения между окнами, или проверкой информации в них.
Прекрасным примером детального изучения поведения человека являются RnD исследования компании Apple. При создании новых девайсов они в первую очередь отталкиваются не от технических возможностей или финансовых планов, а от удобства использования их техники и разработки вещей, которыми хочется использовать постоянно. Например, если взять крупнейшее обновление Apple в плане мобильного интерфейса, а именно переход от стандартных дисплеев с физической кнопкой «Home» к обтекаемым экранам Liquid Retina, то можно заметить, насколько аккуратно замещены привычки по управлению старыми устройствами. Даже такие мельчайшие различия, как один и тот же свайп сверху-вниз, в зависимости от положения пальца может вызывать и окно уведомлений, и пункт управления и даже поиск по системе. Хотя отличия в положении пальца между командами почти незаметно и составляет всего около пары сантиметров! Это одно из самых ярких и гениальных применений привычек людей, проанализировав которые можно повысить эффективность в десятки раз и сделать его интуитивно понятным, не нагружая интерфейс избыточными кнопками. Обратите внимание — интерфейс разработан не для конкретного клиента, а для комфорта всех людей, вне зависимости от пола, роста, национальности. Вы увидите iPhone как у президента и программиста, так у пенсионера и ребенка. Только так можно объективно оценить удобство.
Таким образом, мы понимаем, что для физического устройства можно проанализировать паттерны поведения и свести управление к подсознательно понятной последовательности свайпов и тапов по экрану, при этом получая быстрый и комфортный фидбек визуально и тактильно с помощью вибраций устройства разного уровня. Но представьте, что ваше рабочее пространство теперь не дисплей, умещающийся в руке, а все пространство вокруг вас. Здорово? Сначала может показаться: «ВАУ… столько всего интересного и везде и так круто». На самом деле так и есть, это безграничные возможности, большую часть из которых мы пока даже не можем себе представить. Это принципиально новый формат взаимодействия с устройством. Когда не он помещается у нас в руке, а мы с головой погружаемся в него.
Однако, как говорил Дядя Бен «С великой силой приходит и великая ответственность», поэтому сейчас перед дизайнерами не только из крупных компаний, но и из небольших студий стоит задача — сделать управление в таком не осознаваемо большом пространстве — удобным.
Мне посчастливилось стать одним из тех людей, которые сегодня вносят свой вклад в восприятие обществом виртуальной реальности. Имея опыт руководства проектами в сфере VR могу сказать, что управление интерфейсом — это одна из самых важных задач встающих при разработке. Долгое время я допускал и продолжаю допускать ошибки, которые ведут к когнитивному диссонансу пользователей при взаимодействии с системой. Несмотря на это я многократно убеждаюсь, что данный опыт и является самым важным при исследовании поведения человека, особенно в таких сложных системах.
В чем же сложность создания интерфейса в VR и MR? Казалось бы, адаптируйте существующие модели — сделайте левитирующие окна и привычную систему навигации. Вообще так и есть. Точнее это и есть основополагающая идея преемственности механик взаимодействия с интерфейсом. Apple же не придумала циферблаты и кнопки. Все привычные способы взаимодействия переносятся в инновационные интерфейсы для более комфортного онбординга(процесс, направленный на помощь при адаптировании к новой среде). Это понятие часто связывают со сквеоморфизмом(использование элементов дизайна очень похожих визуально на их аналоги в реальном мире).
Самое интересное — что интерфейс это далеко не всегда только визуальная составляющая управления системы. В широком понимании он включает в себя демонстрацию возможности выбора для пользователя и передачу обратного отклика от действия (обычно я называю его фидбеком). Важно, что удобство интерфейса часто определяется сначала качеством фидбека, и только потом количеством органов чувств, которые задействованы для облегчения считывания действия.
Приведу яркий пример из одного проекта, для которого я проектировал механику взаимодействия с системой. Итак, главная задача состояла в том, чтобы облегчить обучение по управлению сложным оборудованием. В реальной жизни при работе например со станком, мы постоянно чувствуем обратную связь от каждого действия. Будь это поворот рукоятки — мы слышим металлический скрежет, видим как ручка меняет положение в пространстве и получаем полный тактильный контакт. Вот так прекрасно устроена наша природа и мы привыкли, что нам удобно определять фидбек от окружающего мира подобным образом. Удобный iPhone так же аккуратно сигнализирует нашим органам чувств о каждом проделанном действии, показывая плавные анимации разных состояний объекта, активируя несколько режимов тактильного отклика и воспроизводя приятные звуки. Но бывают такие случаи, когда становится не понятно, получила ли система наше действие (глюки операционной системы, произвольные вибрации, отсутствие предупреждения об ошибках).
Например недавно я обратил внимание на кнопку вызывного светофора у моей остановки. При нажатии на нее я чувствую фидбек только тактильно (когда продавливаю ее внутрь). По своей привычке я нажимаю на нее два, а то и три раза, чтобы точно удостовериться, что она активирована. Удивительно, но я далеко не один такой. Почти каждый прохожий нажимает ее минимум дважды, зная, что не получит никакого дополнительного отклика. Таким образом отсутствие фидбека (или его неполное донесение) заставляет пользователя подсознательно сомневаться в правильности его действий. Поэтому сейчас многие кнопки вызывного светофора имеют визуальное оповещение о действии с прекрасным текстом «ЖДИТЕ» (в США например нажатие сопровождается репликой «Wait» и зажигающейся кнопкой).
Точно такие же законы распространяются и на сложные VR интерфейсы. В первой версии нашего приложения была понятная система управления, но комфорта при взаимодействии не было. Тогда я обратил внимание на качество фидбека при каждом действии пользователя. Все было красочно, приятно и понятно… но только визуально. Именно так я и начал изучение принципов работы со звуковым сопровождением интерфейса.
Глобально можно сказать, что важнейшим правилом является не задействование всех органов чувств при донесении фидбека, а грамотная работа с фиксированным количеством способов оповещения для каждого проекта и единой системы. В данном случае стабильность = комфорт и этого нужно придерживаться.
В следующей версии приложения мы добавили мягкие и едва слышимые звуки интерфейса. Для смоделированного оборудования, которое в VR воспринимается как настоящее, лучше всего записывать аудио реальных прототипов. Также, важно помнить, что в VR люди воспринимают типы объектов по разному, например интерфейс это нечто абстрактное и напоминающее голограмму, а смоделированные объекты опознаются как физически существующие (подробнее об этом расскажу в другой раз 🙂 ), поэтому нужно аккуратно и внимательно выбирать акустические приемы для каждого типа.
Вы можете заметить, что я ограничился добавлением в приложение только аудио отклика помимо визуального эффекта. Вы наверное спросите: «Почему тогда не добавить еще и тактильный фидбек от действия? Ведь в контроллерах есть вибрация нескольких типов». Да, я подумал точно так же как вы. Однако проанализировав то, как пользователь (особенно ребенок) обычно воспринимает однократную вибрацию, я решил ее не использовать. Для сравнения, в жизни спектр тактильных откликов невероятно разнообразен — начиная от разной текстуры поверхностей, заканчивая скрежетом, пульсацией и щелчками. Сегодня VR гарнитуры не обладают достаточным разнообразием тактильных откликов, поэтому использовать одну вибрацию, хоть и разных уровней — заведомо не лучшая идея. Правильно использовать вибрацию только там, где она действительно есть. Например при выстреле из смоделированного пистолета в VR мы чувствуем сильную вибрацию, и нам этого достаточно, несмотря на то что у каждого ручного оружия целый спектр отдачи и физического контакта. Но использовать вибрацию при нажатии на кнопку интерфейса в VR не корректно, поскольку пользователь воспринимает ее скорее как голограмму, чем как физически существующий объект. Такой объект скорее может издать звук, чем тактильно ответить человеку. Поэтому повторюсь — важно правильно работать с восприятием людьми разных типов объектов в виртуальной реальности.
Если задуматься, то при должном внимании и опыте при проектировании схемы взаимодействия вполне возможно разработать универсальный интерфейс, который будет комфортно использовать не только в VR, но и в MR. Человек сможет видеть прямо перед собой контент, строго упорядоченный по своему содержанию и будет управлять системой абсолютно интуитивно, вплоть до малейших движений частями тела. Поэтому сейчас мы с вами не можем полностью осознать, насколько грамотные исследования, дизайн и новые технологии способны навсегда изменить нашу жизнь и сделать ее самой эффективной и комфортной за всю историю человечества.