66
SKハイニックスが6.4Gbpsの24GB HBM3をデモ、サムスンはより安価なH-Cubeを開発中

高帯域幅メモリ(HBM)が従来のDRAMをすぐに置き換える可能性は低いでしょうが、HBMエコシステムの継続的な進化により、HBMメモリの利用コストが低減し、より高度なHBMの導入が可能になります。今週、SK Hynixは、帯域幅を大量に消費するシステムオンチップ(SoC)向けの24GB HBM3メモリスタックのデモを行い、SamsungはアクセラレータにおけるHBMの利用を民主化するH-Cubeテクノロジーを発表しました。

シングルチップに24GB

HBM3

(画像提供:ServeTheHome)

このデモは、SK Hynixが少なくともHBM3のサンプルを保有しており、実験室外で実証できることを示しています。しかしながら、SK Hynixは当然のことながら、これらのメモリスタックを最初に採用する予定のSoCパートナーの名称を公表できません。一方、帯域幅を大量に消費するチップは、エンタープライズアプリケーションや高性能コンピューティング(HPC)アプリケーションで使用される傾向があることを考えると、HBM3を採用する最初のSoCはかなり高価になることは間違いありません。

サムスンHキューブ

HBMのコストについて言えば、HBM搭載ソリューションが高価になる理由はいくつかあります。まず、大容量メモリチップの製造にはコストがかかり、ベースダイ上に多数のメモリチップを積層するため、KGSD(Known Good Stacked Die)が貴重になります。次に、これらのKGSDを基板を用いてSoCに接続することもコストがかかります。メモリスタックの数が増えると、基板は法外な大きさになり、高価になる傾向があるためです。ここで、SamsungとAmkorの新しいHybrid-Substrate Cube(H-Cube)技術が登場します。この技術により、6つ以上のHBMスタックを搭載したパッケージのコスト削減が期待されます。 

サムスン

(画像提供:サムスン)

通常、インターポーザーはファインピッチ基板(インターポーザーよりもサイズが大きく、非常に高価である傾向がある)上に配置され、その後マザーボードに取り付けられます。SamsungのH-Cubeテクノロジーは、ファインピッチ基板(FPS)とマザーボードの間に、比較的大型のハイブリッド高密度相互接続(HDI)基板を適用します。FPSをマザーボードに直接配置するのに十分な大きさにする必要がなくなったため、はんだボールピッチを35%縮小できます。Samsungによると、H-Cubeテクノロジーは、複数のロジックチップとHBMを積層する際の安定した電力供給を確保し、信号損失や歪みを最小限に抑えます。 

サムスン

(画像提供:サムスン)

サムスンは、H-Cubeテクノロジーが6個以上のメモリチップを搭載したハイエンドHBM実装で最も効果的に機能すると強調しています。しかし、エントリーレベルの製品にこのテクノロジーを使用することを妨げるものは何もありません。

HBM3とH-Cubeはどちらも、今後のHBMテクノロジーの帯域幅と普及率の向上に貢献するはずです。AMDのR9 FuryやRX Vegaファミリーのように、HBMを採用したコンシューマー向け製品が登場するでしょうか?おそらくそうでしょう。ただし、GPUがあと1~2世代進化するまでは実現しないかもしれません。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。