На ежегодной выставке Computex 2025 в Тайбэе компания Nvidia анонсировала значительное расширение возможностей своей высокоскоростной технологии NVLink, представив новое решение NVLink Fusion. Ранее этот интерфейс, обеспечивающий до 1,8 ТБ/с пропускной способности на видеокартах, использовался исключительно для внутренних соединений чипов Nvidia. Теперь же технология станет доступной для сторонних разработчиков, позволяя интегрировать NVLink в пользовательские процессоры и ускорители, даже от конкурентов. Это откроет путь к созданию гибридных систем, в которых процессоры от Intel, AMD или других производителей могут работать в паре с GPU или чипами Nvidia.
Как отметил Дион Харрис, старший директор Nvidia, NVLink будет доступен в двух вариантах. Первый предусматривает соединение пользовательских процессоров с видеокартами Nvidia через NVLink, что обеспечит в 14 раз большую скорость по сравнению с PCIe 5.0 (128 ГБ/с). Второй вариант, более неожиданной конфигурации, позволит объединять процессоры Grace и будущие процессоры Vera с не-Nvidia ускорителями. Для этого партнёры должны будут интегрировать IP-блок NVLink в свои чипы или использовать специализированный чиплет для соединения.

Однако полная открытость пока недостижима: соединение, например, процессоров Intel с графическими решениями AMD через NVLink Fusion невозможно — один из компонентов всё ещё должен быть от Nvidia. Поддержку данной технологии подтвердили MediaTek, Marvell, AIchip, Fujitsu и Qualcomm, но Intel и AMD в этом списке отсутствуют. Обе компании делают акцент на развитии открытого стандарта UALink, который был представлен в апреле 2025 года. UALink 200G предлагает до 50 ГБ/с двусторонней пропускной способности на линию и, в отличие от NVLink, позволяет масштабировать систему до 1024 устройств.
Параллельно, Nvidia объявила о запуске DGX Cloud Lepton — площадки для аренды GPU-ресурсов. Данная платформа, напоминающая «сервис каршеринга для вычислительных мощностей», объединяет ресурсы компаний CoreWeave, Lambda, SoftBank и других партнёров, предлагая доступ к десяткам тысяч видеокарт для задач искусственного интеллекта. В предварительном доступе Lepton уже поддерживает развёртывание рабочих нагрузок с использованием Nvidia Inference Microservices (NIMs) — готовых шаблонов для ускорения модели.
Подобные решения, как Akash Network, уже существуют, но тесная интеграция с экосистемой Nvidia может дать Lepton серьёзное преимущество. В то же время расширение NVLink Fusion усилит конкуренцию между проприетарными и открытыми стандартами в сегменте высокопроизводительных вычислений. Эти шаги укрепляют позиции Nvidia как ведущего поставщика инфраструктуры для ИИ, однако успех напрямую будет зависеть от распространённости новых технологий среди партнёров.
Источник: iXBT