47
Nvidia、2023年にAI向けH100 GPUを55万個販売へ:レポート
Nvidia Hopper H100 GPU および DGX システム
(画像提供:Nvidia)

生成型AIのブームは、人工知能(AI)や高性能コンピューティング(HPC)向けサーバーの売上を押し上げており、数十社が恩恵を受けると見込まれています。しかし、他の企業よりも大きな恩恵を受けるのは、おそらくある企業でしょう。Financial Timesによると、NVIDIAは2023年にハイエンドのH100コンピューティングGPUを50万台以上、数百億ドル相当販売すると予測されています。

NVIDIAは、2023年に最新のH100コンピューティングGPUを全世界で約55万台出荷する予定で、その大半はアメリカのテクノロジー企業に出荷される予定だと、NVIDIAとTSMCに関係する複数の関係者がフィナンシャル・タイムズに語った。NVIDIAはこの件についてコメントを控えているが、これはFTCの規則を考慮すると当然のことだ。

販売されたGPUの正確な構成は不明ですが、Nvidia H100 80GB HBM2EコンピュートGPUアドインカード(CUDAコア14,592基、FP64 TFLOPS 26基、FP16 TFLOPS 1,513基)は、米国では1枚あたり約3万ドルで販売されています。ただし、これは同社のHopperアーキテクチャベースの最高性能製品ではありません。実際、少なくとも現時点では最も安価な製品です。一方、中国では、このカード1枚の価格は7万ドルにも達することがあります。

NVIDIAの最上位H100搭載製品には、H100 SXM 80GB HBM3(16,896 CUDAコア、34 FP64 TFLOPS、1,979 FP16 TFLOPS)と、H100 NVL 188GB HBM3デュアルカードソリューションがあります。これらの製品は、FoxconnやQuantaなどのサーバーメーカーに直接販売されるか、NVIDIAが直接販売するサーバーに内蔵されています。また、NVIDIAは72コアのGraceプロセッサーとH100 80GB HBM3EコンピューティングGPUを搭載したGH200 Grace Hopperプラットフォームの出荷をまもなく開始する予定です。

NVIDIAは、H100 SXM、H100 NVL、GH200 Grace Hopper製品の価格を公表していません。これは、販売数量とNVIDIAと特定の顧客との取引関係に依存するためです。仮にNVIDIAがH100ベースの製品を1台あたり3万ドルで販売したとしても、最新世代のコンピューティングGPUだけで今年の売上高は165億ドルに達することになります。しかし、NVIDIAはH100シリーズのコンピューティングGPUだけを販売しているわけではありません。

ソフトウェアやハードウェアに変更を加えることなく、既存のシステムを強化するために、NVIDIAの前世代A100コンピューティングGPUを依然として使用している企業もあります。また、中国向けのA800およびH800モデルもあります。

NVIDIAのコンピューティングGPU販売による収益がどの程度になるか、また同社が今年販売するコンピューティングGPUの正確な数を正確に予測することはできませんが、いくつかの推測は可能です。NVIDIAのデータセンター事業は、2024年度第1四半期(4月30日終了)に42億8,400万ドルの収益を上げました。AIブームが続く中、NVIDIAのコンピューティングGPUの売上高は7月下旬に終了した2024年度第2四半期の方が高かったようです。つまり、2023年度はNVIDIAのデータセンター部門にとって記録的な業績となる見込みです。

注目すべきは、NVIDIAのパートナーであるTSMCが現在、コンピューティングGPUの需要にほとんど応えられていないことです。すべてのGPUがCoWoSパッケージを採用しており、ファウンドリはこのチップパッケージング方式の生産能力増強に苦戦しています。多くの企業がAI用途で数万個のコンピューティングGPUの購入を検討しているため、供給が需要に追いつかない状況は当分続くでしょう。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。