Компания OpenAI представила свою первую коммерческую нейросеть, функционирующую без использования аппаратных решений от Nvidia. Новинка, получившая название GPT-5.3-Codex-Spark, базируется на вычислительных мощностях чипов Cerebras. Это позволило добиться впечатляющей производительности: генерация программного кода происходит со скоростью более 1000 токенов в секунду, что почти в 15 раз быстрее показателей предыдущей итерации. Для сравнения, модель Claude Opus 4.6 от конкурентов из Anthropic в ускоренном режиме демонстрирует лишь 2,5-кратный прирост относительно базовых 68,2 токенов в секунду, хотя она и является более тяжеловесным и многофункциональным решением.
На текущий момент Codex-Spark находится в статусе предварительной версии и доступна пользователям с подпиской ChatGPT Pro (стоимостью $200 в месяц). Взаимодействие с моделью реализовано через сервис Codex, консольный интерфейс и плагин для VS Code, а ряд стратегических партнеров уже получил доступ к API. Технические характеристики включают поддержку контекстного окна объемом 128 000 токенов, а работа пока ограничена исключительно текстовым форматом.

Данный релиз является производным от полномасштабной модели GPT-5.3-Codex, дебютировавшей ранее в этом месяце. Если базовая версия предназначена для решения глубоких и ресурсоемких аналитических задач, то модификация Spark оптимизирована именно под максимальное быстродействие. Разработчики OpenAI спроектировали её как узкоспециализированный инструмент для написания кода, а не как универсальную языковую модель общего назначения.
Согласно внутренним тестам OpenAI, версия Spark демонстрирует явное преимущество над GPT-5.1-Codex-mini в специализированных бенчмарках SWE-Bench Pro и Terminal-Bench 2.0, оценивающих навыки программирования, при этом затрачивая на выполнение заданий значительно меньше времени. Тем не менее, сторонней верификации этих данных пока не проводилось.
Стоит отметить, что ранее низкая скорость работы Codex считалась его основным недостатком. В ходе декабрьских тестов издания Ars Technica ИИ-агенту от OpenAI потребовалось почти вдвое больше времени на разработку простейшей игры по сравнению с Claude Code от Anthropic.
В этом свете достижение отметки в 1000 токенов в секунду выглядит колоссальным технологическим скачком для собственной инфраструктуры OpenAI. По данным независимого сервиса Artificial Analysis, наиболее производительные модели компании на базе процессоров Nvidia показывают куда более скромные результаты: скорость GPT-4o составляет около 147 токенов в секунду, o3-mini — порядка 167, а GPT-4o mini — всего 52 токена.
Источник: iXBT


