19
SK Hynix は、GPU 向けの新しい高帯域幅メモリ、2048 ビット インターフェイスとスタックあたり 1.5TB/秒を備えた HBM4 が 2024 年にリリース予定であると発表しました。
AMD
(画像提供:AMD)

1024ビットインターフェースで9.6GT/s(9.6ギガトランスファー、1秒あたり数十億回の転送速度。メモリ帯域幅の一般的な単位)という驚異的なデータ転送速度を誇るHBM3Eメモリが、ついに量産開始を迎えました。しかし、人工知能(AI)や高性能コンピューティング(HPC)業界の需要は急速に高まっており、2048ビットインターフェースを備えたHBM4メモリの登場はわずか2年後です。SK Hynixの副社長は先日、同社が2026年までにHBM4の量産化に向けて順調に進んでいると述べました(Business Koreaの報道による)。

「AIコンピューティング時代の到来により、生成AIは急速に進歩している」とSKハイニックスのキム・チュンファン副社長はSEMICON Korea 2024で述べた。「生成AI市場は年間35%の成長が見込まれる」 

生成AI市場の急速な成長は、より高性能なプロセッサを必要としており、それに伴ってメモリ帯域幅もより広くなります。その結果、DRAMスループットを大幅に向上させるには、HBM4が必要になります。SK Hynixは次世代HBMの生産を2026年までに開始したいとしており、これは2025年後半を示唆しています。これは、MicronがHBM4を2026年初頭に提供開始するという計画をある程度裏付けています。 

9.6GT/sのデータ転送速度を持つHBM3Eメモリスタック1つで、理論上のピーク帯域幅は1.2TB/sとなり、6つのスタックで構成されるメモリサブシステムでは7.2TB/sという驚異的な帯域幅を実現します。ただし、この帯域幅はあくまで理論値です。例えば、NVIDIAのH200は、信頼性と消費電力への懸念から、H200搭載時でも最大4.8TB/sしか提供できません。

Micron社によると、HBM4は2048ビットインターフェースを採用し、スタックあたりの理論上のピークメモリ帯域幅を1.5TB/s以上に向上させる予定です。これを実現するには、HBM4は約6GT/sのデータ転送速度を実現し、次世代DRAMの消費電力を抑える必要があります。一方、2048ビットのメモリインターフェースを実現するには、インターポーザー上で非常に高度な配線を行うか、HBM4スタックをチップ上に配置するだけで済みます。いずれの場合も、HBM4はHBM3やHBM3Eよりも高価になります。

HBM4に関するSK Hynixの見解はSamsungも共有しているようで、Samsungは2026年にHBM4を生産する予定であると述べています。興味深いことに、Samsungは特定の顧客向けにカスタマイズされたHBMメモリソリューションも開発しています。

「HBM4は現在開発中で、2025年のサンプル出荷、2026年の量産開始を予定しています」と、サムスンメモリ担当エグゼクティブバイスプレジデントのジェジュン・キム氏は、アナリストや投資家との最新の決算説明会で述べました(SeekingAlpha経由)。「生成AIの普及に伴い、カスタマイズされたHBMの需要も高まっています。そのため、標準製品だけでなく、ロジックチップを追加することで、お客様ごとに性能を最適化したカスタマイズされたHBMも開発しています。詳細な仕様については、主要顧客と協議中です。」

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。