Китайская компания DeepSeek объявила о выпуске обновлённой версии своей ИИ-модели для математики — DeepSeekMath-V2, демонстрирующей впечатляющую эффективность при решении наиболее сложных математических проблем. В отличие от аналогичных решений OpenAI и Google, исходный код DeepSeekMath-V2 открыт, что даёт возможность разработчикам и исследователям подробно изучить её алгоритмическую основу.
DeepSeekMath-V2 с успехом справилась с пятью из шести заданий Международной математической олимпиады (IMO) 2025, что эквивалентно показателю золотой медали. Более того, на престижном студенческом состязании Putnam модель заработала 118 баллов из 120, значительно превысив рекордное достижение человека в 90 баллов.

В DeepSeekMath-V2 особый акцент сделан на борьбе с «галлюцинациями» — ситуациями, когда сеть генерирует верные ответы, опираясь на недостоверные или нелогичные рассуждения. Для устранения этой уязвимости исследователи предложили метод «мета-верификации»: дополнительная нейросеть проверяет обоснованность доказательств, выдаваемых основной моделью, не допуская фальсификации результатов.
Архитектурно DeepSeekMath-V2 опирается на конвейер обучения Cold Start. Вместо массивных коллекций формальных математических доказательств модель самостоятельно создаёт обучающие примеры в несколько итераций. Такой подход позволяет ей развиваться без потребности в обширных размеченных данных, подготовленных вручную. При решении каждой задачи сеть генерирует 64 возможных решения, после чего отбирает наиболее логически последовательный вариант.
Появление DeepSeekMath-V2 стало реакцией на задержки выхода флагманской модели R2, спровоцированные перебоями в поставках аппаратного обеспечения.
Источник: iXBT



