NVIDIA: Путь к пяти триллионам. Как производитель видеокарт возглавил ИИ-революцию
29 октября 2025 года NVIDIA вписала свое имя в историю, став первой компанией, чья рыночная капитализация превысила 5 триллионов долларов. Темпы экспансии поражают: отметка в 4 триллиона была пройдена всего четырьмя месяцами ранее. Менее чем за полгода стоимость гиганта выросла на целый триллион.
На сегодняшний день технологический гигант удерживает доминирующее положение, контролируя от 80% до 90% сегмента ИИ-ускорителей. Вклад компании в рост индекса S&P 500 в 2025 году составил почти 20%. Рассказываем, как узкопрофильный разработчик графики за несколько лет превратился в главного архитектора мирового технологического ландшафта.
Эволюция: от гейминга к фундаментальной науке
История NVIDIA началась 5 апреля 1993 года. Трое инженеров — Дженсен Хуанг, Кертис Прим и Крис Малаховски — объединились, веря, что специализированные графические вычисления изменят облик индустрии. Однако путь к признанию оказался полон драматических поворотов.
1995–1998: Крах NV1 и триумф Riva 128
Дебютный продукт, чип NV1 (1995), стал для компании серьезным испытанием. NVIDIA сделала ставку на обработку квадратичных поверхностей, в то время как Microsoft в своем стандарте DirectX выбрала полигональную графику. Несовместимость с большинством игр привела к коммерческому фиаско: тысячи чипов вернулись на склад, а компания оказалась на грани банкротства.

Ситуацию исправил Riva 128, выпущенный в 1997 году. Полная поддержка DirectX и впечатляющая производительность (разрешение до 1024×768 при 16,7 млн цветов) обеспечили феноменальный спрос. Продажа миллиона устройств за четыре месяца принесла 29 млн долларов прибыли, что позволило компании выйти на IPO в 1999 году с капитализацией в 562,8 млн долларов.
1999–2001: Эра GPU и шейдерная революция
С выходом GeForce 256 в 1999 году NVIDIA ввела в обиход термин «графический процессор» (GPU). Ключевым новшеством стал блок T&L (трансформация и освещение), который снял вычислительную нагрузку с центрального процессора. А в 2001 году GeForce 3 представила миру программируемые шейдеры. Именно эта гибкость кода позже позволит использовать видеокарты для задач, далеких от компьютерных игр.
2005–2012: Рождение CUDA и первые шаги в нейросетях
В середине 2000-х исследователи из Стэнфорда обнаружили, что параллельная архитектура видеокарт идеально подходит для сложных расчетов, таких как моделирование сворачивания белков. NVIDIA вовремя распознала этот тренд и в 2007 году представила CUDA — программно-аппаратный стек для параллельных вычислений.
Хотя инвесторы поначалу скептически относились к затратам на научное направление, 2012 год расставил всё по местам. Нейросеть AlexNet, обученная на двух картах GTX 580, продемонстрировала колоссальное превосходство в распознавании образов. Стало ясно: будущее ИИ неразрывно связано с GPU.
Флагманы ИИ-индустрии: от V100 до архитектуры Rubin
NVIDIA планомерно создавала специализированные решения для центров обработки данных, где каждое новое поколение становилось технологическим эталоном.
- Volta (V100, 2017): Появление тензорных ядер превратило GPU в мощнейший инструмент глубокого обучения.
- Ampere (A100, 2020): Внедрение памяти HBM2 и технологии MIG (разделение ресурсов) сделало чип стандартом для облачных вычислений, увеличив стоимость компании до $323 млрд.
- Hopper и Ada Lovelace (2022): Флагман H100 с «трансформерным движком» стал дефицитным товаром в разгар бума больших языковых моделей (LLM).
- Blackwell (2024): Многочиповая архитектура и 208 млрд транзисторов обеспечили пятикратный прирост производительности относительно предшественников.

Следующий амбициозный шаг — архитектура Rubin, запланированная на 2026 год. Ожидается, что чипы Rubin CPX с памятью HBM4 обеспечат 35-кратный прирост в задачах инференса (работы готовых моделей) по сравнению с первыми версиями Blackwell.
Конкурентная среда: попытки штурма Олимпа
Несмотря на доминирование NVIDIA, конкуренты не оставляют попыток отвоевать долю рынка, используя разные стратегии.
AMD и Intel: AMD развивает линейку Instinct (MI355X/MI400), делая ставку на огромный объем памяти HBM3E. Однако их слабым местом остается программная среда ROCm, которая пока уступает CUDA в универсальности. Intel продвигает ускорители Gaudi 3, заявляя о превосходстве в энергоэффективности, но страдает от позднего выхода на рынок.
Китайский фактор: Huawei с линейкой Ascend успешно заменяет западные технологии на внутреннем рынке КНР. Спрос на чипы в Китае настолько велик, что даже власти США вынуждены разрешать поставки модифицированных версий процессоров NVIDIA (например, H200), чтобы компания не теряла этот стратегический регион.
Собственная разработка облачных гигантов: Google (TPU v7), Amazon (Trainium 3) и Microsoft (Maia) создают свои специализированные кристаллы. Тем не менее, даже они вынуждены обеспечивать совместимость с экосистемой NVIDIA, что лишь подтверждает её фундаментальное значение для индустрии.
Сегодня NVIDIA — это не просто производитель «железа». Это мощнейшая экосистема из софта, библиотек и архитектурных решений, которая остается главным двигателем прогресса в эпоху искусственного интеллекта.



