61
Nvidia は次世代 H200 AI GPU 用のメモリ供給確保に全力を尽くしていると報じられており、HBM3E を 15 億 4000 万ドル相当事前購入するなど…
SKハイニックス
(画像提供:SK Hynix)

人工知能(AI)および高性能コンピューティング(HPC)アプリケーション向けプロセッサの販売数を業界で誰よりも多く、その状態を維持したいのであれば、製品の安定供給を確保する必要があります。NVIDIAはまさにこれを実現しています。TSMCのウェハー生産能力とパッケージング能力を先行購入するだけでなく、HBM3メモリの供給も確保しています。韓国の Chosun Biz によると、NVIDIAはMicronとSK Hynixから13億ドル相当のHBM3メモリを先行購入したとのことです。

本誌が業界関係者に取材したところによると、NVIDIAはMicronとSK Hynixに対し、7,000億ウォンから1兆韓国ウォン(約5億4,000万ドルから7億7,000万ドル)に及ぶ前払い金を支払ったという。この支払額は10億8,000万ドルから15億4,000万ドルの範囲とみられるが、具体的な金額については不明である。業界内では、この支払いの目的は、2024年にリリース予定のAIおよびHPC GPU向けHBM3Eメモリの安定供給を確保するためではないかとの憶測が広がっている。

Nvidia の AI および HPC GPU が今後数四半期にわたって売り切れていることを念頭に置き、同社は H100、H200、GH200、および HBM3 または HBM3E を使用するその他の製品向けのメモリの安定した供給を確保する必要があります。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。