
データセンター向けコンピューティングGPUで四半期で100億ドル以上の利益を上げたばかりのNVIDIAは、2024年までに同製品の生産量を少なくとも3倍に増やす計画だと、事情に詳しい関係筋を引用したFinancial Timesが報じている。 この計画は非常に野心的であり、NVIDIAがこの計画を実現し、人工知能(AI)や高性能コンピューティング(HPC)アプリケーション向けのA100、H100、その他のコンピューティングCPUの需要が堅調に推移すれば、同社にとって驚異的な収益増につながる可能性がある。
NVIDIAのフラッグシップGPU「H100」の需要は非常に高く、2024年まで売り切れが続くとFT紙は報じている。同社はGH100プロセッサの生産量を少なくとも3倍に増やす計画だと、FT紙は同社の計画に詳しい3人の関係者を引用して報じている。2024年のH100の出荷台数は150万台から200万台と予測されており、今年の50万台から大幅に増加することになる。
まず、GH100コンピューティングGPUは814mm²という巨大なシリコンチップであるため、大量生産は非常に困難です。製品の歩留まりは既にかなり高い水準にあると思われますが、NVIDIAがGH100ベースの製品の生産量を3倍にするには、TSMCから大量の4Nウェハ供給を確保する必要があります。概算では、TSMCとNVIDIAは300mmウェハあたり最大65チップしか確保できないと見込まれます。
このようなチップを200万個製造するには、約3万1000枚のウェハが必要になります。もちろん製造は可能ですが、TSMCの5nmクラスのウェハ生産量(月産約15万枚)からすると、かなりの割合です。そして、その生産能力は現在、AMDのCPU/GPU、Apple、NVIDIA、その他の企業で共有されています。
第二に、GH100はHBM2EまたはHBM3メモリを採用し、TSMCのCoWoSパッケージを採用しているため、NVIDIAはこの面でも供給を確保する必要があります。現在、TSMCはCoWoSパッケージの需要を満たすのに苦労しています。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
最後に、Nvidia の H100 コンピューティング カードまたは SXM モジュールをどこかにインストールする必要があるため、Nvidia はパートナーの AI サーバーの出力が少なくとも 3 倍になるようにする必要がありますが、これもまた懸念事項です。
しかし、Nvidia が必要な H100 GPU をすべて供給できれば、来年この取り組みで莫大な利益を上げることは間違いありません。
アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。