Как Дженсен Хуанг изменил представление об инфраструктуре для ИИ

Портфель заказов на чипы, исчисляемый триллионами долларов. Революционный фреймворк для агентного ИИ, который Дженсен Хуанг сопоставил по значимости с Linux. И один тезис с презентации GTC 2026, который заставит каждого CDO и руководителя технологического департамента экстренно пересмотреть подходы к архитектуре данных.

Я наблюдаю за выступлениями главы NVIDIA на GTC уже много лет. Дженсен мастерски сочетает театральность с математической точностью, неизменно начиная с цифр такого масштаба, что аудитория невольно задается вопросом: «Я правильно это услышал?»

В этот раз, наблюдая за трансляцией из SAP Center в Сан-Хосе, я зафиксировал новую планку: один триллион долларов.

Речь не о рыночной оценке компании или абстрактных прогнозах развития ИИ. Это объем подтвержденных контрактов на поставку архитектур Blackwell и Vera Rubin до 2027 года. Всего за год Хуанг сумел удвоить этот показатель — в прошлом году он составлял 500 миллиардов.

Как человек, курирующий направления data science и платформенной инженерии, я внедряю нейросети в реальные бизнес-процессы. И мой вывод однозначен: выступление на GTC 2026 было посвящено не только железу. Это был манифест новых требований к корпоративной инфраструктуре в эпоху агентного ИИ — требований, к которым большинство компаний сегодня критически не готовы.

Позвольте разобрать это по пунктам.


К вопросу об инструментарии: пока мировые гиганты планируют триллионные инвестиции, бизнесу нужно решать прикладные задачи уже сегодня. Если вам требуется бесшовный доступ к передовым моделям — таким как Claude, GPT или Gemini — без необходимости настройки сложной инфраструктуры и привязки к конкретному вендору, обратите внимание на BotHub. Это единый API, прозрачный баланс и моментальный старт.

Сервис работает без VPN и поддерживает оплату российскими картами.

Используйте эту ссылку, чтобы получить 300 000 бесплатных токенов для тестирования ваших первых гипотез и начала работы с топовыми нейросетями в один клик!


Показатель, затмевающий финансовые рекорды

Дженсен выступал два часа. Анонсы новых чипов — Vera Rubin, LPU Groq 3 и стоечных архитектур Kyber — ожидаемо заняли первые полосы технологических изданий.

Однако самая важная мысль прозвучала в комментариях аналитиков отрасли накануне ивента: «Мы вступаем в эру новой инфраструктуры. Теперь мы строим специализированные CPU-стойки, чей единственный функционал — обслуживание агентного ИИ. Пока ускорители генерируют токены, а софт работает на периферии, в центре должен находиться мощный дирижер, оркеструющий весь этот процесс».

Это фундаментальный сдвиг: фокус смещается с GPU на системную архитектуру в целом.

Давайте проанализируем: задачи 2023–2024 годов сводились к обучению моделей и инференсу умеренной сложности. Модели потребляли данные и выдавали результат, а бутылочным горлышком была чистая мощность GPU.

Агентный ИИ меняет парадигму. Когда один ИИ-агент координирует работу десяти суб-агентов, обращается к полусотне инструментов и удерживает контекст в параллельных потоках, критически важной становится не сырая мощь, а слой оркестрации. Эффективность теперь измеряется скоростью перемещения данных и способностью CPU координировать эти процессы.

В недавнем отчете NVIDIA Дженсен отметил: «Объем генерации токенов растет экспоненциально, что требует от нас принципиально иной скорости инференса». Тема агентского ИИ упоминалась им постоянно.

Ответом NVIDIA стала архитектура Vera Rubin, обеспечивающая в 50 раз большую энергоэффективность при генерации токенов по сравнению с Blackwell H200. А новый процессор Vera CPU был спроектирован специально для управления сложными агентными сценариями.

Сигнал для руководителей: инфраструктура, которую вы проектируете на 2026 год, рискует оказаться решением проблем вчерашнего дня.


OpenClaw и NemoClaw: «Linux» для мира ИИ-агентов

Самым неожиданным анонсом стал запуск OpenClaw.

Это open-source фреймворк для разработки ИИ-агентов, созданный Питером Штайнбергером. Хуанг назвал его «самым динамично развивающимся открытым проектом в истории», и активность сообщества это подтверждает. Система дает агентам возможность работать с файловой структурой, подключаться к различным LLM, планировать многоэтапные задачи и делегировать их суб-агентам.

Сравнение с Linux здесь не случайно. Как Linux стал фундаментом корпоративных вычислений, так и OpenClaw претендует на роль операционной системы для эпохи ИИ-агентов.

NVIDIA дополнила это решение корпоративной версией NemoClaw. Это защищенный референсный дизайн с инструментами комплаенса и безопасности. Он интегрируется в существующие политики компании, позволяя жестко контролировать поведение агентов и соблюдение нормативных требований.

Осознание этого заставило меня немедленно инициировать совещание с нашими инженерами.

Причина проста: текущие методы управления ИИ создавались для взаимодействия «запрос-ответ». Они абсолютно не приспособлены к автономным экосистемам, где цепочки агентов генерируют тысячи обращений к инструментам в секунду.

NemoClaw — это попытка NVIDIA устранить этот управленческий хаос. И сам факт появления такого продукта говорит о том, что кризис контроля наступит гораздо быстрее, чем ожидает большинство компаний.


Данные — скрытый лейтмотив выступления

Если всмотреться, презентация Дженсена была историей о данных, рассказанной на языке GPU.

Его ключевой тезис заключается в том, что ИИ — это «пятислойный пирог», где энергия, чипы, инфраструктура, модели и приложения должны масштабироваться синхронно. Но главным фундаментом остаются данные.

На GTC было объявлено о стратегическом партнерстве IBM и NVIDIA. Компании внедряют ускорение CUDA в движок IBM Presto SQL, чтобы на порядки ускорить обработку масштабных корпоративных данных. Как выразился Дженсен: «Данные — это тот источник истины (ground truth), который наполняет ИИ смыслом и контекстом».

Для дата-команд это одновременно и признание заслуг, и серьезный вызов.

Признание: Качественные, структурированные и доступные данные становятся самым ценным активом. Это топливо для всей агентной экономики.

Вызов: Если в ваших данных царит хаос — они разрознены или плохо описаны — агентный ИИ вскроет эту проблему мгновенно. Агенты не умеют «вежливо сомневаться»; они будут выдавать уверенные, но катастрофически неверные результаты в промышленных масштабах.


Vera Rubin и экономика вашего ИТ-бюджета

Перейдем к конкретике, важной для архитекторов и инженеров.

По данным Semi Analysis, архитектура Vera Rubin в сочетании с Groq 3 LPX обеспечивает в 50 раз больше токенов на ватт и в 35 раз большую пропускную способность на мегаватт, чем текущие решения.

Это означает, что экономика эксплуатации масштабных ИИ-систем скоро кардинально изменится. Стоимость генерации в среде Vera Rubin будет несопоставима с сегодняшними затратами.

Планируя бюджеты на облака или закупку собственного оборудования сегодня, вы рискуете не учесть стремительное падение стоимости владения инфраструктурой, которое произойдет в ближайшие полтора года.

Как действовать в такой ситуации?

Я делаю ставку на максимальную гибкость. Мы сокращаем сроки контрактов, где это возможно, и проектируем архитектуру так, чтобы рабочие нагрузки можно было легко мигрировать между провайдерами при изменении ценовой конъюнктуры. Мы экспериментируем с open-source моделями на текущем железе, не дожидаясь Vera Rubin, но закладываем в финансовые модели ежегодное снижение стоимости инференса на 60–80%.


Триллионный сигнал: стратегия развития

О чем нам говорит триллион долларов в предзаказах? NVIDIA не работает «в стол» — за этими цифрами стоят реальные обязательства гигантов индустрии и целых государств.

Гонка вооружений в сфере ИИ-инфраструктуры только набирает обороты. Для компаний среднего сегмента это создает уникальную ситуацию:

Риск: Пропасть между возможностями лидеров рынка и рядовых компаний будет расти. Технологический «ров» гиперскейлеров становится все глубже.

Шанс: Революционные мощности со временем станут доступны всем через удешевление API. Вычисления уровня Vera Rubin станут стандартом де-факто через пару лет.

Победят не те, кто пытается соревноваться с Microsoft в количестве GPU, а те, кто создает фундамент данных и управленческие фреймворки уже сегодня, чтобы эффективно использовать мощные API завтра.


Мой план действий после GTC

За прошедшие двое суток я сфокусировался на трех приоритетах:

Во-первых: Мы начали ревизию протоколов управления агентами. У нас есть правила доступа для моделей, но отсутствуют регламенты для автономных агентных цепочек. Эту брешь нужно закрыть до запуска первых полноценных агентов в продакшн.

Во-вторых: Мы пересматриваем технологическую дорожную карту на 2026–2027 годы. Мы не меняем её радикально, но проводим стресс-тестирование наших расчетов стоимости облачного инференса с учетом новых вводных по эффективности чипов.

В-третьих: Я запустил проект по тотальному документированию потоков данных (data lineage). Если данные — это ground truth, то их качество и прозрачность напрямую определяют надежность нашего ИИ. Это тяжелый процесс, но он критически необходим.


Главный вопрос GTC 2026

Дженсен Хуанг ясно дал понять: ИИ стал промышленной инфраструктурой, где токены — это основной продукт, а каждая корпоративная система должна быть перестроена под эту реальность.

Я вижу это на практике: технологии развиваются быстрее, чем корпоративная культура и методы управления. Инфраструктура обгоняет регуляторику.

Вопрос уже не в том, внедрим ли мы агентный ИИ. Вопрос в том, способна ли ваша архитектура данных стать тем надежным фундаментом, которому агенты смогут доверять.

У большинства компаний сегодня данных нет, управления нет, а команды мыслят старыми категориями. Но NVIDIA подтвердила: новые мощности придут независимо от вашей готовности.

Станут ли ваши данные прочной опорой для инноваций или источником масштабных ошибок? Этот вопрос станет определяющим для технологических лидеров в ближайшие годы.


А как обстоят дела с управлением ИИ-агентами у вас? Вы уже готовите инфраструктуру к новым скоростям или пока наблюдаете со стороны? Буду рад обсудить ваши подходы в комментариях.

 

Источник

Читайте также