Google уничтожил OpenAI? Как Gemma 4 меняет правила игры

Буду откровенен: после выхода второй версии я перестал следить за развитием линейки Gemma. Модели не казались плохими, но они просто не воспринимались как серьезные конкуренты мощным игрокам из Китая, таким как DeepSeek или Qwen, на базе которых разработчики реально строят коммерческие продукты. Gemma оставалась для меня «игрушкой» для Kaggle. Однако сегодняшний анонс Google меняет правила игры на корню.

Gemma 4 дебютировала 2 апреля 2026 года. Технический директор Hugging Face Жюльен Шомон не скрывал восторга, назвав этот релиз событием чрезвычайной важности. Когда человек, отвечающий за платформу, где размещено большинство открытых нейросетей, заявляет о возвращении Google в высшую лигу, это определенно заслуживает внимания.


Что скрывает в себе Gemma 4?

Gemma 4 — это новая серия моделей с открытыми весами от команды Google DeepMind, созданная на базе наработок флагманской архитектуры Gemini 3.

Линейка включает четыре вариации, оптимизированные под разные задачи:

  • E2B (2 млрд параметров): Компактная модель, способная работать даже на смартфонах, Raspberry Pi или Jetson Nano.

  • E4B (4 млрд параметров): Чуть более мощная, но по-прежнему отлично чувствующая себя на мобильных устройствах.

  • 26B MoE (архитектура Mixture of Experts): При общем объеме 25,2 млрд параметров задействует лишь 3,8 млрд активных на каждый запрос, что обеспечивает высокую скорость работы при впечатляющей глубине логики.

  • 31B Dense: Флагманское решение, стремительно ворвавшееся в топ-3 мирового рейтинга открытых моделей Arena AI.

Все представленные версии обладают мультимодальными возможностями (обработка изображений и видео). «Младшие» модели (E2B и E4B) дополнительно поддерживают распознавание аудио на устройстве без обращения к облаку. Контекстное окно составляет 128K токенов для edge-решений и 256K для старших версий — этого хватит для анализа целого репозитория кода за один раз.


Производительность и бенчмарки

Официальные метрики для моделей с дообучением (instruction-tuned) выглядят более чем убедительно.

Текстовые бенчмарки

Бенчмарки по работе с изображениями

Длинный контекст

Ключевые цифры, заслуживающие особого внимания:

  • AIME 2026: 89,2% у версии 31B. Для сравнения, предшественница набирала лишь 20,8% — прогресс четырехкратный всего за одно поколение.

  • Codeforces ELO: 2150 пунктов для 31B против 110 у Gemma 3. Это колоссальный прорыв в способности к программированию.

  • LiveCodeBench v6: 80,0% против 29,1% у предыдущей версии.

  • GPQA Diamond: 84,3%. Модель показывает знания, превосходящие уровень экспертов-людей (около 65%) в задачах по естественным наукам.

Отдельно впечатляет MoE-модель: при скромных затратах вычислительных мощностей она выдает результат 82,3% на GPQA Diamond, сочетая скорость компактных моделей с интеллектом флагманов.


Если вы ищете удобную точку входа для работы с топовыми нейросетями, такими как Claude, GPT или Gemini, рекомендую обратить внимание на платформу BotHub.

Сервис работает без VPN и поддерживает оплату картами РФ.

Переходите по ссылке, чтобы получить приветственный бонус — 300 000 токенов для тестирования нейросетей!


Gemma 4 на фоне «тяжеловесов»

Сравнивать 31-миллиардную Gemma 4 с проприетарными гигантами вроде Claude Opus 4.6 или GPT-5.2 технически не совсем корректно, ведь те обладают несопоставимо большим количеством параметров. Однако сам факт того, что Gemma 4 выступает в одной весовой категории с этими монстрами, — главный показатель успеха Google.

Научные рассуждения (GPQA Diamond)

Отставание от лидеров индустрии на 7-8 пунктов выглядит незначительным, если вспомнить, что Gemma 4 можно запустить локально, в то время как конкуренты требуют огромных серверных мощностей. Она даже опережает популярную Claude Sonnet 4.6 более чем на 10 пунктов.

Математика (AIME)

Результат 89,2% на олимпиадных задачах — достижение, которое раньше было доступно лишь проприетарным моделям с колоссальными затратами ресурсов.

Знания (MMLU Pro)

С показателем 85,2% Gemma 4 почти догнала гигантскую Kimi K2.5, хотя та превосходит ее по объему параметров в десятки раз.

Программирование (LiveCodeBench)

Уровень кодинга Gemma 4 делает ее серьезным инструментом, сопоставимым с лучшими решениями на рынке.


Экономика эффективности

Модель 26B MoE заслуживает особого внимания: благодаря грамотной архитектуре она выдает потрясающие результаты при минимальных затратах ресурсов. В то время как проприетарные модели выигрывают за счет «грубой силы», Google предлагает невероятную эффективность: никакой зависимости от API, полная приватность данных и отсутствие затрат на инференс.


Лицензия Apache 2.0: почему это важно

Предыдущие версии Gemma распространялись под ограничительной лицензией, что сдерживало развитие экосистемы. Теперь же Google перешла на стандарт Apache 2.0 — открытый и свободный путь, знакомый по проектам типа Kubernetes или TensorFlow. Для бизнеса это означает отсутствие барьеров: модель можно использовать в коммерческих целях, модифицировать и внедрять как угодно.


Локальный запуск

Запустить Gemma 4 на собственном железе проще простого:

brew upgrade llama.cpp
# Или установка через --HEAD, если версия обновлена
brew install llama.cpp --HEAD

При наличии 16 ГБ RAM/VRAM можно запускать версию E4B:

llama-server -hf ggml-org/gemma-4-E4B-it-GGUF:Q8_0

Для систем с 24 ГБ и выше подойдет MoE-версия:

llama-server -hf ggml-org/gemma-4-26B-A4B-it-GGUF:Q4_K_M

Поддержка модели уже встроена во все популярные инструменты (Ollama, vLLM, Hugging Face, LM Studio и др.).


Инновации под капотом

  • Послойные эмбеддинги: Позволяют модели быть легкой, но мощной за счет эффективной индексации данных.

  • Гибридное внимание: Умное переключение между локальными и глобальными контекстами для сохранения скорости и точности.

  • Нативный Function Calling: Поддержка вызова внешних функций реализована изначально, что критично для создания ИИ-агентов.

  • Режим размышлений: Специальная команда <|think|> заставляет нейросеть «рассуждать» вслух, повышая точность ответов на сложных задачах.


Вердикт

Я начинал статью скептиком, но Gemma 4 доказала, что мой пессимизм был преждевременным. Это фундаментально новый уровень открытого ИИ. Она, возможно, не лидер в абсолютно каждом тесте, но как инструмент для локальной работы — это «золотой стандарт». Google всерьез вступил в борьбу, и для нас, как для пользователей и разработчиков, это отличная новость.

 

Источник

Читайте также