Прошедшая неделя выдалась на редкость динамичной в сфере ИИ: мы увидели дебют Claude Sonnet 4.6 и Gemini 3.1 Pro. На этом фоне OpenAI кажется слегка уступающей позиции, даже несмотря на недавний выход специализированной ChatGPT 5.3 Codex для агентного программирования.
В дискуссиях под моими публикациями часто вспыхивают споры: одни критикуют Gemini за нестабильность, превознося ChatGPT, другие же демонстрируют прямо противоположный опыт. Чтобы внести ясность и определить фаворита для повседневного использования, я решил провести комплексное сравнение ChatGPT и Gemini в прикладных задачах.
Для объективности теста я выбрал топовые версии: проверенную временем ChatGPT 5.2 Pro и новинку этой недели — Gemini 3.1 Pro. Предлагаю вам ознакомиться с результатами этого противостояния.

Краткий обзор участников
ChatGPT 5.2 Pro
Эта модель считается одним из наиболее сбалансированных решений от OpenAI. Акцент в ней сделан на прецизионную точность ответов. С момента релиза 11 декабря 2025 года она зарекомендовала себя как надежный инструмент для глубокой аналитики данных и сложной профессиональной деятельности. Модель демонстрирует отличные когнитивные способности при работе с объемными контекстами, хотя её база знаний ограничена августом 2025 года, что по меркам 2026 года уже требует обновления.
Gemini 3.1 Pro
Флагман от Google, представленный 19 февраля 2026 года, позиционируется как интеллектуальный хаб для многоэтапного анализа. Gemini сильна в синтезе разрозненных данных и визуализации сложных концепций. Разработчики заявляют о двукратном росте производительности. Примечательной особенностью является генерация анимированной SVG-графики напрямую через код, что обеспечивает идеальную масштабируемость при минимальном весе файлов. Это серьезный шаг в сторону автоматизации профессиональных рабочих процессов.
Инструментарий
Для тестирования обеих моделей я использовал агрегатор нейросетей BotHub. Платформа удобна тем, что предоставляет доступ к широкому спектру нейросетей — от текстовых до видеогенераторов — в одном интерфейсе. При регистрации по ссылке выше можно получить 300 000 бонусных «капсов» для собственных изысканий.
Методология тестирования
Исследование разделено на четыре ключевых блока: работа с текстом (креатив и суммаризация), математика и программирование. Это те самые рутинные задачи, которые составляют основу запросов современных пользователей.
Текстовые и программные блоки оцениваются по 3-балльной шкале. Математический этап — по 1 баллу за каждое верное решение (максимум 4 балла).
Этап 1: Литературная генерация
Просмотреть промпт
Напиши ироничный фэнтези-рассказ в сеттинге магического средневековья. В наличии: маги, рыцари, драконы и таверны. Структура: ровно три главы. Юмор должен быть ситуационным и интеллектуальным, без пошлости и абсурда. Акцент на магических неудачах и деконструкции жанровых штампов. Финал должен быть логичным и неожиданным. Язык живой, современный, но с сохранением атмосферности.
Этап 2: Аналитическая выжимка (Summery)
Просмотреть промпт
Необходимо сжать PDF-файл с практической работой по системам реального времени. Цель: максимально сократить объем, сохранив все ключевые алгоритмы и данные, необходимые для выполнения работы и ответов на контрольные вопросы. Результат должен быть структурированным и готовым к использованию.
Этап 3: Математический анализ
Моделям предложено решить 4 задачи: одну из профильного ЕГЭ и три из курса высшей математики (представлены в виде скриншотов).
Этап 4: Разработка ПО
Просмотреть промпт
Роль: Senior Python Developer. Задача: создать десктопный инженерный калькулятор с графическим интерфейсом (Tkinter/PyQt). Требования: базовые операции, тригонометрия (с переключением рад/град), логарифмы, константы. Дополнительно: встроить в интерфейс кнопку «Змейка», запускающую классическую игру в новом окне. Код должен быть чистым и задокументированным.
Ход эксперимента
Первый раунд: Текст
ChatGPT 5.2 Pro

Рассказ получился добротным, но несколько предсказуемым. Юмор строится на абсурде, как и заказывали, но «искры» не хватило. За соблюдение структуры и уверенный слог — 2 балла.
Gemini 3.1 Pro

Gemini проявила лаконичность. Несмотря на меньший объем, качество юмора и динамика повествования оказались выше. Читать было действительно интересно. Заслуженные 3 балла.
Второй раунд: Суммаризация
ChatGPT 5.2 Pro

Идеальный баланс. Модель выделила теорию, сохранила листинги кода и четко ответила на вопросы. Пособие получилось исчерпывающим. 3 балла.
Gemini 3.1 Pro

Слишком агрессивное сжатие. Полезная теоретическая часть была практически полностью удалена, что затрудняет понимание контекста. Для практического применения этого недостаточно. 2 балла.
Третий раунд: Математика
ChatGPT 5.2 Pro
Модель уверенно справилась с вузовской программой, но неожиданно споткнулась на задаче с параметром из ЕГЭ. Итог: 3 балла из 4.
Gemini 3.1 Pro
Безупречный результат. Все задачи, включая школьную алгебру и высшую математику, решены корректно и с пошаговыми пояснениями. 4 балла.
Четвертый раунд: Кодинг
Обе модели справились с задачей. ChatGPT создала функциональный инструмент, хотя дизайн калькулятора выглядел архаично. Gemini предложила более современный интерфейс, но реализация «Змейки» была чуть менее эстетичной. Обе модели получают по 3 балла за полную работоспособность кода.
Сводные результаты
| Критерий / Модель | ChatGPT 5.2 Pro | Gemini 3.1 Pro |
|---|---|---|
| Креативный текст | 2 | 3 |
| Работа с документами | 3 | 2 |
| Математика | 3 | 4 |
| Программирование | 3 | 3 |
| Общий зачет | 11 | 12 |
Вердикт
С минимальным отрывом победу одерживает Gemini 3.1 Pro. Модель от Google продемонстрировала превосходство в логическом мышлении и математике, а также подкупила своей лаконичностью в творческих задачах.
Тем не менее, ChatGPT 5.2 Pro остается грозным соперником, особенно там, где важна подробная и структурированная подача информации. Главным же аргументом в пользу Gemini сегодня выступает её экономическая эффективность и скорость работы — использование Pro-версии от Google обходится дешевле и работает ощутимо быстрее, чем аналоги от OpenAI.
Выбор за вами, но цифры говорят в пользу технологического рывка Google.


