Micron теперь поставляет модули памяти HBM4 объемом 36 ГБ с поддержкой 12 каналов

Micron начинает поставлять память HB4M для систем искусственного интеллекта следующего поколения

Microon начал поставлять свою инновационную высокопроизводительную память HBMM4 важным клиентам, работающим над будущими системами искусственного интеллекта. Новая модель HBMM4 содержит 36 ГБ по 12 слоёв каждый, что значительно улучшает производительность и энергоэффективность, специально разработанная для ускорения задач ИИ в дата-центрах.


🚀 Хочешь улететь на Луну вместе с нами? Подписывайся на CryptoMoon! 💸 Новости крипты, аналитика и прогнозы, которые дадут твоему кошельку ракетный ускоритель! 📈 Нажмите здесь: 👇

CryptoMoon Telegram


Построенный с использованием технологии Micron’s 1-beta DRAM и продвинутой упаковки из 12 слоев, модуль памяти HBМ4 обеспечивает пропускную способность более 2 терабайт в секунду на стопку памяти благодаря интерфейсу шириной 2048 бит. Это представляет улучшение производительности примерно на 60% по сравнению с предыдущим поколением HBМ3E.

Улучшения в энергоэффективности привели к снижению энергопотребления более чем на 20%, что крайне важно для управления растущими масштабами и сложностью ИИ-систем. Поскольку модели AI становятся все более сложными, растет потребность в быстродействующих и эффективных решениях памяти.

Превосходная производительность, увеличенная пропускная способность и энергоэффективность, характерные для Micron’s HBM4, демонстрируют наш опыт в области технологии памяти и доминирование на рынке продукции. После впечатляющего прогресса с внедрением нашего HBM3E мы последовательно расширяем границы инноваций благодаря HBM4 и широкому ассортименту продуктов памяти и хранения данных, ориентированных на ИИ. Наши достижения в производстве HBМ4 совпадают с подготовкой наших клиентов к следующим поколениям платформ искусственного интеллекта, обеспечивая плавную интеграцию и устойчивое увеличение объемов.— Raj Narasihmhan, старший вице-президент и генеральный менеджер подразделения Micron’s Cloud Memory Business Unit.

Память MicroN HBMC4 (High Bandwidth Memory 4) в настоящее время тестируется несколькими клиентами и предназначена для удовлетворения грядущего увеличения количества ускорителей AI и крупномасштабных реализаций языковых моделей во многих секторах, включая здравоохранение, финансы и транспорт.

Некоторые первоначальные предложения по демонстрации памяти HBMM4 включают платформу NVIDIA Vera Rubin и AMD Instinct MI400. Проще говоря, это ранние примеры технологий с использованием памяти HBMM4, где NVIDIA Vera Rubin platform и AMD Instinct MI400 являются такими примерами.

Смотрите также

2025-06-11 10:03