Разбор технологий и альтернатив.
С недавнем патчем в Mass Effect Andromeda наконец улучшили отображение лиц персонажей. Однако главный вопрос остаётся: почему анимация получилась такой изначально. Портал Eurogamer разобрался в ситуации.
DTF публикует перевод материала.
А ведь на их месте мог быть кто угодно.
Стоит в разговоре с разработчиками упомянуть ролики с анимациями из диалогов Mass Effect: Andromeda, как их лица меняются. Словно они солдаты, нетронутые взрывом снаряда, убившего их товарища рядом. Многие из ныне широко известных проблем Mass Effect Andromeda знакомы любому разработчику игр, сильно полагающихся на сюжет, и каждый из них понимает, что вполне мог бы оказаться на месте BioWare и EA, получающих сейчас горы справедливой критики.
Вот, например, Джонатан Купер из Naughty Dog, работавший над первым Mass Effect, в своём Twitter объяснил, насколько сложна работа аниматоров, сделав акцент на давящих ожиданиях аудитории и компромиссах, на которые пришлось пойти разработчикам Andromeda.
Лицевые анимации и диалоги делать сложно. Для этого нужен талант, опыт, технологии и множество разных специалистов. Графические инженеры, художники по освещению, сценаристы, создатели 3D-моделей, актёры озвучки и, конечно же, аниматоры. Они работают в своём субъективном и постоянно меняющемся мире драмы и эмоций, стараясь при этом соответствовать постоянно возрастающим ожиданиям аудитории.
То, что раньше было технологическим шедевром, сегодня — мусор, а игровые персонажи сейчас проходят по одному из самых сложных участков пути по «зловещей долине». Иногда игровые лица могут выглядеть действительно как настоящие (как в некоторых сценах из Horizon: Zero Dawn), но, как показывает Andromeda, внезапный глюк или неловкая пауза в речи могут буквально за несколько секунд испортить все впечатления от анимации, на которую потратили много часов труда.
Andromeda оступилась на подъёме из «зловещей долины» и покатилась вниз. Она гораздо более амбициозна, чем предыдущие игры во вселенной Mass Effect, в ней больше строк диалогов, чем в Mass Effect 2 и 3 вместе взятых (для сравнения: в Mass Effect 3 было 40 тысяч строчек). К тому же, в Andromeda 1200 говорящих персонажей, что в два раза больше, чем в Mass Effect 3.
То есть очень много лицевой анимации. И не забывайте, что реплики произносятся на пяти языках: английском, французском, немецком, итальянском и испанском. В общем, трудиться над анимацией BioWare надо было очень много, больше, чем когда-либо для Mass Effect.
Всё начинается с лепки моделей персонажей и риггинга. Риггинг — это процесс создания скелета для 3D-персонажа, с выделенными осями движения для каждого сустава — нога становится ногой, а палец пальцем. Процесс это трудоёмкий: на риггинг Лары Крофт для Tomb Raider 2013 года студии Crystal Dynamics понадобился целый месяц.
Но тела это одно, а лица — совсем другое. Сложные выражения лиц появляются в результате движения множества «костей», которые перемещают меш лица. Пять лет назад в игровых лицах обычно было 30-50 «костей», но из-за этого лица получались не очень реалистичными. Сейчас же игровые движки способны на большее. Например, лицо персонажа вроде Натана Дрейка из Uncharted 4 состоит из 300-500 «костей» и может включать в себя от 200 до 400 блендинговых форм, которые обеспечивают плавный переход между выражениями лица.
Затем эти скелеты оживляются с помощью анимационных данных, которые для многих кинематографичных сцен в современных играх собираются через захват движений. Как говорит Дэвид Бартон (David Barton), продюсер в специализирующейся на захвате движений компании Cubic Motion, сейчас скелеты, основанные на сканировании, встречаются всё чаще. Обычно в деталях захватывается от 70 до 80 выражений лица актёра.
Cubic Motion, которые делали захват движений для кинематографичных сцен Horizon: Zero Dawn’s, создают алгоритмы под названием solvers (солверы, «решатели»). Эти алгоритмы обрабатывают данные сканирования и на их основе интерпретируют крайне детальную и сложную информацию, полученную во время захвата лица.
Можно пойти ещё дальше и анимировать карты морщин, которые симулируют мимические изменения на коже, и карты диффузии, симулирующие кровообращение под кожей лица в виде румянца и покраснений.
Andromeda — игра масштабная, там много персонажей и диалогов, к тому же игрок может как угодно менять внешность своего Райдера. А значит, многое из вышеперечисленного реализовать невозможно. Решением для таких игр становится автоматизация, как и, кстати, для «Ведьмака 3» с Horizon: Zero Dawn.
В Andromeda используется технология FaceFX от компании OC3 Entertainment, программа-посредник, в которой с помощью аудиофайлов можно создавать движения губ и лицевую анимацию для 3D-моделей. FaceFX повсюду: в The Division, Fallout 4, Batman: Arkham Knight и ещё во многих и многих крупных играх. В основе технологии лежит метод создания набора лицевых выражения для фонем, то есть базовых движений губ для, например, звука «о» или «а», или протяжного «мм». Затем эти базовые движения собираются, основываясь на аудиодорожке диалога.
CD Projekt RED создавали анимации для 35 часов диалогов третьего «Ведьмака» с помощью похожего инструмента, только они его собирали сами и добавили туда возможность задавать движения тела и углы камеры. С Andromeda сравнивать сложно, поскольку BioWare о своих инструментах не рассказывает, однако в «Ведьмаке» диалоги выглядели качественно потому, что для разработчиков автоматически сгенерированная анимация была лишь основой.
Легче модифицировать её, чем начинать с нуля — аниматоры могли взять сгенерированные сцены и как угодно изменять их, добавлять случайные жесты и новые углы камеры, даже заставлять персонажей двигаться и менять позы. Вот демонстрация этого процесса, которую технический директор CD Projekt RED в прошлом году показывал на GDC:
Но это ещё не всё. То, что мы уже разобрали, почти не касается небольших движений глаз, головы и мышц лица, которые и делают выражение человеческим.
Horizon: Zero Dawn — лишь одна из недавних игр, которые это подтверждают: глаза Элой постоянно подрагивают и двигаются, так что её лицо кажется по-настоящему живым. Мёртвые, недвижимые глаза это одна из самых больших проблем игровой анимации, потому что люди сразу же обращают на них внимание. Мелкие движения помогают эту проблему решить, особенно если убедиться, что глаза направлены туда, куда должен смотреть персонаж во время разговора.
А ведь есть ещё и вопросы графики. Для создания глаза хорошего качества нужны соответствующие шейдеры, чтобы симулировать движение жидкостей и отражение света между поверхностью глаза и радужкой. Чтобы создать хорошее лицо, нужно и освещение сделать правильно.
И тут у Andromeda возникает непростая проблема. Мир игры освещается динамически — так работает движок Frostbite, — так что зачастую разговоры происходят в плохо освещённых местах, из-за чего персонажи выглядят неестественно. Почему-то BioWare не стали заранее располагать источники света в диалогах, как делали это в прошлых частях Mass Effects, и как Guerrilla делали в Horizon.
В идеальном мире никто бы не прибегал к автоматической генерации лицевой анимации. Извини, FaceFX. И идеал этот скоро может стать реальностью.
Ninja Theory — одни из первопроходцев в сфере лицевой анимации, их игры можно рассматривать как срезы её развития. Heavenly Sword 2007 года стала одной из первых игр, в которых использовался захват движения, но анимации в ней серьёзно перерабатывались аниматорами WETA прежде, чем попасть в игру. В Enslaved 2010 года Ninja Theory использовали собственный лицевой солвер, который, по словам Антониадеса, сгенерировал для них от 80 до 90 процентов финальных анимаций.
В DmC 2013 года использовался тот же солвер, но движения захватывались не с помощью камеры, отслеживающей положения маркеров, похожих на шарики для пинг-понга, — сканирование было полностью компьютерным, для него не нужно было готовиться, да и физический аспект сцены попадал в игру.
Сейчас в Hellblade используется солвер уже от Cubic Motion, а на головы актёров монтируются системы камер от Technoprops, которые снимают лица со ста углов. Лицевой каркас делает компания под названием 3Lateral.
В итоге 95 процентов работы автоматизировано. Затем над получившимися данными немного колдуют специалисты из Cubic Motion, а Ninja Theory в процессе участвует редко.
Их метод создания лицевой анимации настолько отточен, что Ninja Theory в прошлом году демонстрировали его вживую со сцены на Siggraph, конференции по компьютерной графике. Мимика лиц людей сразу же переходила на движок Unreal 4 — за это студия получила награду в номинации «Лучшая графика в реальном времени и интерактивность».
В Hellblade диалогов гораздо меньше, чем в Mass Effect, однако она демонстрирует, что уже совсем скоро можно будет спокойно захватывать анимацию прямо с лиц актёров озвучки, пока они произносят реплики. А это значит, что разработчики будут экономить много времени, поскольку им не надо будет подчищать анимацию.
С другой стороны, возможно, им придётся больше работать с актёрами, потому что теперь даже мельчайшие движения их глаз будут попадать в игру.
Так или иначе, не стоит смотреть на лучшие примеры лицевой анимации из других игр и думать, что Andromeda будет сопоставима с ними во всём. Помните, что тысячи диалогов в большой игре вроде Andromeda — это результат множества факторов, так что сделать каждую секунду анимации идеальной сложно. Бюджет при этом ограничен, и анимация постоянно конкурирует за финансирование с боевой системой или детализацией уровней.
И всё же, вполне логично просить от игры про отношения лучшей демонстрации персонажей. Технологии постепенно совершенствуются и, как заметил Джонатан Купер, возможно, после истории с Andromeda студии начнут выделять на создание анимации больше денег из общего бюджета. Всем нам приятно проводить время с игровыми персонажами, которые ведут себя естественно. Когда мы думаем, что играем с настоящими людьми, игра соединяется с жизнью.
#технологии #разбор #andromeda
Источник: DTF