DeepMind заставила искусственный интеллект учиться паркуру

Компания продемонстрировала первые шаги ИИ в беге с препятствиями с акробатическими элементами.

​Подразделение Google поделилось роликом, в котором управляемые ИИ «агенты» научили себя запрыгивать на преграды, пригибаться и перескакивать через пустоты.

Полная версия видео на данный момент недоступна — ролик был загружен в Dropbox и квота на скачивания уже исчерпана, но один из инженеров компании опубликовал короткое видео процесса.

В 45-секундном ролике выглядящий как полено с ногами агент комично перебирает конечностями, пригибаясь под платформами и перепрыгивая их. Не все препятствия удаётся одолеть с первого подхода, но ИИ не отступает.

DeepMind экспериментировали и с более сложными фигурами, обучая человекоподобного агента перепрыгивать с платформы на платформу.

Как отмечает The Verge, столь впечатляющего результата ИИ удалось добиться практически самостоятельно. Программисты компании лишь снабдили его сенсорами для определения своего местоположения и окружения, и поставили цель продвигаться вперёд. При этом, составлением наиболее оптимального маршрута компьютер занимается сам.

Данная разработка может не только существенно упростить анимацию в играх, но и помочь в машинном обучении бытовых роботов в будущем.

​Похожее исследование уже проводили инженеры из Эдинбургского университета, адаптировавшие нейронную сеть для управления анимацией персонажей.

Компания DeepMind получила широкую известность после марта 2016 года, когда их ИИ под названием AlphaGo встретился с игроком Го мирового уровня, Ли Седолом. Компьютер одержал верх со счётом 4-1, преодолев барьер, ранее недоступный для других ИИ. В ближайшем будущем инженеры DeepMind планируют обучить ИИ играть в Starcraft II.

#deepmind #технологии

 
Источник: DTF

Читайте также