Корпорация Microsoft анонсировала Maia 200 — второе поколение собственных серверных процессоров, разработанных специально для ускорения задач искусственного интеллекта. Чип, базирующийся на 3-нанометровом техпроцессе TSMC, позиционируется как наиболее эффективное решение для инференса нейросетей за всю историю компании.

Архитектура Maia 200 объединяет 140 миллиардов транзисторов, обеспечивая производительность до 10 петафлопс при вычислениях в формате FP4, что втрое превосходит показатели конкурента Amazon Trainium3. Аппаратная часть включает 216 ГБ высокоскоростной памяти HBM3e с пропускной способностью 7 ТБ/с и 272 МБ кэш-памяти SRAM. Примечательно, что расчетная тепловая мощность (TDP) новинки ограничена 750 Вт — это почти в два раза меньше энергопотребления Nvidia Blackwell B300 Ultra (1400 Вт).
Процессор оптимизирован для работы с низкоразрядными форматами данных (FP4 и FP8), что делает его идеальным инструментом для экономически выгодного запуска уже обученных моделей. По заверениям Microsoft, новинка демонстрирует на 30% большую производительность на каждый затраченный доллар по сравнению с первым поколением Maia 100, несмотря на рост общего энергопотребления. Чип будет использоваться исключительно для нужд облачной инфраструктуры Azure и не предназначен для розничной продажи.
Источник: iXBT


