Micron и SK Hynix выпустили модули SOCAMМ специально для AI-серверов Nvidia

На конференции Nvidia GTC 2025 компании Micron и SK Hynix презентовали SOCAMM — инновационный форм-фактор памяти, специально разработанный для систем Nvidia. Это решение, именуемое Small Outline Compression Attached Memory Module, нацелено на улучшение производительности и энергоэффективности AI-серверов, функционирующих на платформе Grace Blackwell. Основой данной технологии является стандарт LPDDR5X, отличающийся уменьшенным потреблением энергии, компактностью и высокой пропускной способностью.

Micron и SK Hynix выпустили модули SOCAMМ специально для AI-серверов Nvidia
Источник: Micron

Представители Micron заявили, что их SOCAMM модули ёмкостью 128 ГБ уже на стадии готовности к массовому выпуску. В сравнении с традиционными RDIMM и MRDIMM, данное новшество демонстрирует более чем 2,5-кратное увеличение пропускной способности при троекратном снижении энергопотребления. Компактный размер модуля в 14×90 мм не только оптимизирует компоновку серверов, но и улучшает управление температурным состоянием.

«Искусственный интеллект трансформирует привычные вычислительные процессы, а память играет в этом ключевую роль», — подчеркнул Радж Нарасимхан, старший вице-президент Micron. По его уверению, SOCAMM ускорит как обучение нейросетей, так и их функционирование в режиме реального времени.

Компания SK Hynix, в свою очередь, представила свою версию энергоэффективных модулей SOCAMM, не уточняя их технические детали. Они планируют начать массовое производство в соответствии с динамикой рынка и видят в этом основу для будущих AI-решений.

Следует отметить, что SOCAMM несовместим с системами AMD и Intel — разработка ориентирована исключительно на архитектуру Nvidia. Это выделяет сосредоточенность компании на формировании замкнутой экосистемы для AI-решений. Прогнозируется, что с увеличением потребности в AI-инфраструктуре SOCAMM станет одним из стандартов в сфере высокопроизводительных серверов.

 

Источник: iXBT

Читайте также