Парадокс ИИ-агентов: почему на один запрос приходят разные решения

Интеллектуальные агенты на основе больших языковых моделей (LLM), способные решать комплексные задачи за счет использования внешних инструментов и построения логических цепочек, всё активнее интегрируются в реальные бизнес-процессы. Тем не менее, вопрос о воспроизводимости их поведения при идентичных вводных данных остается малоизученным. Между тем, стабильность реакций критически важна для верификации, отладки и обеспечения общей отказоустойчивости таких систем.

Для восполнения этого пробела было проведено масштабное исследование поведенческой устойчивости трех ведущих нейросетей (Llama 3.1 70B, GPT-4o и Claude Sonnet 4.5). В качестве тестовой среды использовался датасет HotpotQA — специализированный набор данных с многоходовыми вопросами, сформированный экспертами в области обработки естественного языка из Университета Карнеги-Меллона, Стэнфорда и Монреальского университета.

Анализ результатов 3 000 испытаний (100 уникальных задач по 10 итераций для каждой модели) показал, что агенты склонны выбирать разные алгоритмы действий даже при абсолютно одинаковых запросах. В среднем на 10 запусков фиксируется от 2,0 до 4,2 различных сценариев выполнения, а вариативность в количестве предпринятых шагов достигает 55%.

Парадокс ИИ-агентов: почему на один запрос приходят разные решения
Иллюстрация: Grok

Исследователи выявили ключевую закономерность: высокая стабильность поведения (не более 2 уникальных траекторий) гарантирует точность в пределах 80–92%, тогда как при существенном разбросе (6 и более вариантов решения) корректность ответов падает до 25–60%. Примечательно, что 69% всех расхождений в логике возникают уже на начальном этапе — при первом обращении к инструментам. Длина пути также служит индикатором успеха: лаконичные решения (3 шага) верны в 90% случаев, в то время как затянутые процессы (8 и более шагов) приводят к правильному результату лишь в 43% сессий.

Для минимизации хаотичности рекомендуется снижать параметр «температуры» генерации до минимума (с 0.7 до 0.0), что не только сокращает количество побочных траекторий, но и повышает итоговую точность на 5,4 процентных пункта. Авторы работы советуют внедрять мониторинг согласованности в режиме реального времени: если агент начинает отклоняться от курса в самом начале, вероятность ошибки крайне высока. Такой подход открывает возможности для автоматизированного контроля качества и выбора наиболее предсказуемых архитектур.

Данное изыскание подтверждает, что даже в условиях ограниченного набора инструментов ИИ-агенты демонстрируют значительную нелинейность поведения, которая прогрессирует вместе со сложностью задач. Для практического применения технологий крайне важно обеспечивать не только формальную точность, но и предсказуемость алгоритмов — это фундамент для создания надежных и безопасных интеллектуальных систем.

 

Источник: iXBT

Читайте также