Qualcomm анонсировала ИИ-акселераторы AI200 и AI250 для дата-центров, бросив вызов Nvidia и AMD

Qualcomm представила два передовых ускорителя для задач искусственного интеллекта: AI200 с выпуском, намеченным на 2026 год, и AI250, запланированный на 2027 год. Оба решения разрабатываются для дата-центров и призваны конкурировать с GPU от Nvidia и AMD, которые сегодня доминируют на рынке ИИ-инфраструктуры.

Чипы созданы на базе Hexagon Neural Processing Unit (NPU) — технологии, изначально разработанной для мобильных устройств и адаптированной под ресурсоёмкие задачи в дата-центрах. AI200 поддерживает до 768 ГБ LPDDR-памяти на одной PCIe-плате, что позволяет разворачивать масштабные языковые и мультимодальные ИИ-модели при оптимальном количестве оборудования. Охлаждение осуществляется с помощью жидкостной системы, а энергопотребление не превышает 160 кВт на стойку.

AI250 предложит инновационную архитектуру с near-memory computing (NMC), которая увеличит пропускную способность памяти в десять раз и сократит энергозатраты по сравнению с AI200. Новинка также обеспечит динамическое распределение ресурсов между картами при сохранении высоких стандартов безопасности и масштабируемости.

Иллюстрация: Qualcomm

Кроме того, Qualcomm презентовала полный стек программного обеспечения, совместимый с ведущими фреймворками — PyTorch, ONNX, LangChain и другими, что упрощает развёртывание и управление ИИ-моделями. Одним из ключевых заказчиков стала саудовская компания Humain, заключившая контракт на поставку вычислительных мощностей общим объёмом 200 МВт.

 

Источник: iXBT

Читайте также