77
Micron の新しい超高速メモリが Nvidia の次世代 AI GPU に搭載され、24GB HBM3E チップが生産開始されました…
(画像提供:Future)

Micronは本日、データセンターおよびAIクラスのGPU向け最新メモリであるHBM3Eメモリの量産開始を発表しました。Micronによると、同社のHBM3Eは、今年第2四半期に6個のHBM3Eメモリチップを搭載して発売予定のNVIDIAの次期H200に搭載される予定です。また、Micronは、3月に開催されるNVIDIAのGTCカンファレンスにおいて、今後発売予定の36GB HBM3Eチップの詳細を発表すると発表しました。
通常のHBM3と比較して、HBM3Eは帯域幅を1TB/秒から最大1.2TB/秒に向上させます。これは控えめながらも顕著なパフォーマンス向上です。HBM3Eはチップあたりの最大容量も36GBに増加しますが、MicronのNvidia H200向けHBM3Eはチップあたり「わずか」24GBで、HBM3の最大値と同等です。また、これらのチップは、HBM3Eが理論上提供できる最大12段スタックではなく、8段スタックをサポートしています。Micronは、独自のHBM3E実装を持つ競合他社のSamsungとSk hynixと比較して、独自のHBM3Eメモリは消費電力を30%削減できると主張しています。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
マシュー・コナッツァーは、Tom's Hardware USのフリーランスライターです。CPU、GPU、SSD、そしてコンピューター全般に関する記事を執筆しています。