Учёные из компании Mem0 представили два типа памяти — Mem0 и Mem0g, — которые усиливают способность крупных языковых моделей (LLM) запоминать и использовать информацию в продолжительных беседах. Эти решения устраняют основное ограничение современных языковых моделей: трудность в обработке данных, находящихся за пределами их контекстного окна, даже если оно расширено до миллионов токенов.
По словам генерального директора компании Mem0, Таранджита Сингха, актуальные системы имеют тенденцию «забывать» ключевые данные, например, игнорировать аллергии пациента или терять детали путешествия в беседе с планировщиком.

Решение Mem0 заключается в динамическом извлечении и обновлении информации. На начальном этапе система анализирует последние сообщения и общий план диалога, выделяя важные факты. Далее она решает, какие данные нуждаются в добавлении, обновлении или удалении, если они противоречат. Это позволяет сохранить актуальность памяти агента без излишней нагрузки на контекст. Mem0g дополняет этот подход графовыми структурами, где сущности (люди, события, объекты) образуют узлы, а их отношения — рёбра. Это даёт возможность строить сложные взаимосвязи, например, связывая даты поездок с городами и событиями.
В ходе тестирования на основе набора данных LOCOMO, Mem0 сократил задержку на 91% и сэкономил более 90% токенов по сравнению с методами, загружающими весь контекст. При этом качество ответов остаётся на уровне. Mem0g демонстрирует подобную эффективность, но лучше подходит для задач, требующих временных или логических связей. Обе архитектуры превзошли шесть категорий систем, в том числе решения с открытым исходным кодом и ChatGPT.
Для корпоративных приложений это означает более надёжных ИИ-агентов в службах поддержки, медицинских сервисах или планировании. Mem0 подходит для простых сценариев, а Mem0g — для сложных задач, таких как анализ длительных диалогов. Разработчики подчёркивают, что их подход не требует дополнительных вычислительных мощностей, что делает его экономически выгодным для бизнеса.
Источник: iXBT