Micron представила модуль памяти SOCAMM2 объёмом 256 ГБ для ИИ-серверов
Новый формат оперативной памяти, разработанный совместно с Nvidia, обеспечивает до 2 ТБ LPDRAM на 8-канальный процессор. Благодаря увеличенной плотности и использованию KV-кэша время отклика при работе с длинным контекстом выросло в 2,3 раза.
Компания Micron анонсировала модуль оперативной памяти нового формата SOCAMM2 ёмкостью 256 гигабайт, предназначенный для инфраструктуры искусственного интеллекта. Разработка велась совместно с Nvidia и ориентирована на решение проблемы нехватки памяти при обработке ресурсоёмких ИИ-нагрузок.
Ключевым техническим изменением стало увеличение ёмкости одного монолитного кристалла LPDRAM до 32 гигабайт. В конфигурации с 8-канальным процессором модули SOCAMM2 обеспечивают до 2 терабайт LPDRAM на систему. Повышенная плотность памяти позволяет серверам эффективнее работать с длинными контекстными окнами, характерными для современных языковых моделей.
Производитель отмечает, что применение SOCAMM2 увеличивает время отклика при выводе данных с длинным контекстом в 2,3 раза. Это критически важно для агентных нагрузок, где автономные приложения выполняются на центральном процессоре и требуют быстрого доступа к большим объёмам данных.
Формат SOCAMM2 обеспечивает более высокую плотность памяти в компактном корпусе по сравнению с традиционными RDIMM и LRDIMM. Такие модули будут использоваться на платформе Vera Rubin.
Образцы SOCAMM2 объёмом 256 ГБ уже отгружены клиентам. Официальная презентация продукта состоится на конференции Nvidia GTC 2026, которая пройдёт 16–19 марта.