Российский ИИ впервые в мире научился самостоятельно адаптироваться к новым задачам

Российский ИИ впервые в мире научился самостоятельно адаптироваться к новым задачам

Исследователи из лаборатории искусственного интеллекта T-Bank AI Research и Института AIRI создали революционную модель, о чём сообщили «Коду Дурова» в пресс-службе компании.

Считается, что это первая в мире модель в сфере контекстного обучения, способная самостоятельно обучаться новым действиям всего за несколько примеров. Ранее ИИ-системы могли выполнять только фиксированный набор функций, и появление новых задач требовало полного переобучения.

  • Это означало значительные затраты на финансовые и вычислительные ресурсы для адаптации ИИ к новым условиям применения.
  • Однако прорыв российских экспертов позволяет создавать ИИ-системы, которые автоматически подстраиваются под изменения в окружающей среде и новые задачи без вмешательства человека.
  • Это открытие может найти применение в самых разных областях: от космических миссий до домашних помощников-роботов.

Изображение: T-Bank AI Research
Модель Headless-AD способна выполнять различные типы действий независимо от их количества и комбинации: как те, на которых она обучалась, так и те, с которыми сталкивается впервые.

Один из ключевых сценариев применения данной модели — создание персональных роботов-помощников для дома. Эти роботы могут быть обучены на стандартном наборе задач и выполнять их в каждом доме. Модель Headless-AD позволяет роботам адаптироваться к индивидуальным условиям и потребностям каждого домохозяйства без необходимости переобучения. Другой пример: адаптация беспилотного автомобиля, способного работать с новыми деталями, даже если они имеют другой принцип работы. Например, при установке двигателя с большей тягой или новых шин.

В T-Bank AI Research сообщили, что результаты исследования получили признание мирового научного сообщества и были представлены на одной из ведущих конференций в сфере ИИ — International Conference on Machine Learning в Вене, Австрия.

Детальное описание модели и результаты экспериментов доступны в статье In-Context Reinforcement Learning for Variable Action Spaces. Исходный код и дополнительные материалы находятся на GitHub.

 

Источник