DeepSeek выпустила модели V3.2 и «олимпийскую» V3.2-Speciale

DeepSeek выпустила модели V3.2 и «олимпийскую» V3.2-Speciale

DeepSeek‑AI анонсировала новое поколение языковых моделей — DeepSeek‑V3.2 и DeepSeek‑V3.2‑Speciale. Обновление делает упор на способности к глубокому рассуждению и на взаимодействии с агентными инструментами.

Ключевая инновация релиза — встроенный механизм «размышлений» (chain‑of‑thought) непосредственно в инструменты модели, что повышает её эффективность при решении задач, требующих многшаговой логики и последовательных действий.

По заявлению разработчиков, версия DeepSeek‑V3.2‑Speciale достигла уровня, сопоставимого с «золотым» показателем на международных олимпиадах по математике (IMO) и по информатике (IOI).

Сравнительные результаты выглядят следующим образом:

  • Математика (AIME 2025): DeepSeek‑V3.2‑Speciale — 96,0%, опережая GPT‑5 High (94,6%) и Gemini‑3.0 Pro (95,0%). Базовая V3.2 показала 93,1%.
  • Программирование (CodeForces): рейтинг версии Speciale — 2701, что почти равно показателю Gemini‑3.0 Pro (2708) и заметно превосходит GPT‑5 High (2537).
  • Агентные задания (Tool‑Decathlon): стандартная DeepSeek‑V3.2 Thinking — 35,2%, выше GPT‑5 High (29,0%), но немного уступает Claude‑4.5 Sonnet (38,6%) и Gemini‑3.0 Pro (36,4%).

В основе моделей лежит обновлённая архитектура DeepSeek Sparse Attention (DSA), оптимизированная для работы с длинными контекстами и сохранения релевантности при увеличении объёма входных данных.

Разработчики также отмечают ограничения: из‑за меньшего по сравнению с конкурентами объёма вычислительных ресурсов при обучении широта общих знаний модели уступает лидерам рынка. Кроме того, для достижения наилучшего качества модель требует генерации более протяжённых цепочек рассуждений, что увеличивает расход токенов и влияет на эффективность.

Базовая версия уже доступна через API, веб‑интерфейс и приложение — опробовать можно по ссылке. Версия Speciale доступна через API до 15 декабря 2025 года.

 

Источник