Компания Micron объявила о начале поставок своей самой быстрой и емкой памяти с высокой пропускной способностью (HBM) — второго поколения HBM3, известной как HBM3e. Новые модули памяти имеют рекордную емкость 36 ГБ, что является значительным увеличением по сравнению с предыдущей емкостью 24 ГБ. Micron добилась этого путем увеличения числа вертикально уложенных 3-гигабайтных чипов с восьми до 12.
Компания сообщила, что уже отправляет «готовые к производству» модули памяти своим партнерам в «экосистеме ИИ». Это означает, что память отправляется таким компаниям, как Nvidia, для ее сертификации для использования в будущих ускорителях искусственного интеллекта.
Несмотря на увеличение емкости HBM3e на 50% за счет четырех дополнительных слоев памяти, Micron утверждает, что снизила энергопотребление на 30% по сравнению с 8-слойными продуктами HBM3e конкурентов. В целом, Micron заявляет, что ее 12-слойный продукт емкостью 36 ГБ имеет эффективность более чем на 2,5 Вт на ватт выше, чем у конкурентов.
Samsung и Micron анонсировали свою 12-слойную память HBM3e еще в феврале, и с тех пор идет гонка за то, чтобы доставить ее AMD, Nvidia и другим производителям оборудования, ориентированным на ИИ. AMD уже планирует модернизировать свое текущее семейство ускорителей ИИ MI300 до HBM3e, поскольку оно было выпущено с HBM3, а Nvidia также обновила свой H200 до памяти HBM3e.
Взрывной рост интереса к ИИ сделал рынок памяти с высокой пропускной способностью очень востребованным. Micron и SK Hynix уже сообщили, что распродали все свои запасы HBM на 2024 год и большую часть 2025 года. По мере продолжения бума ИИ конкуренция за более высокую емкость и пропускную способность будет только усиливаться. Однако кардинального скачка вперед не произойдет до появления HBM4, которое ожидается примерно в 2026 году.