
NVIDIAは、高性能ゲーミングGPUと業界をリードするAI GPUで広く知られています。しかし、この1兆ドル規模のGPUメーカーは、社外におけるGPUの利用方法をコントロールすることでも知られています。例えば、AIBパートナーのグラフィックカード設計に対しては、非常に厳しい制限を設けている場合があります。当然のことながら、このレベルのコントロールは、カードパートナーだけでなく、Microsoftを含むAI顧客にまで及んでいるようです。The Informationによると、NVIDIAの新しいBlackwell B200 GPUをMicrosoftのサーバールームにどのように設置するかをめぐって、MicrosoftとNVIDIAの間で対立が生じたとのことです。
NVIDIAはデータセンター市場におけるより大きなシェア獲得に積極的に取り組んでおり、Blackwell B200の発表を見ればそのことが一目瞭然です。プレゼンテーション中、ジェンセン・フアン氏は何度も、もはや個々のGPUではなく、NVL72ラック全体をGPUとして考えていることを示しました。これは、AI製品からさらなる収益を得ようとする、同社の明白な取り組みであり、顧客が新しいB200 GPUをインストールする方法にも影響を与えています。
以前は、ハードウェアを収容するための適切なサーバーラックを購入し、構築するのは顧客の責任でした。現在、NVIDIAは顧客に個別のラック、さらにはSuperPod全体を直接購入するよう促しています。NVIDIAは、これによりGPUのパフォーマンスが向上すると主張しており、様々なGPU、サーバー、ラック、さらにはSuperPod間の相互接続を考慮すると、この主張には確かに根拠があります。しかし、大規模なデータセンターを構築するには、多額の費用がかかります。
Nvidia の小規模な顧客は同社の製品に満足するかもしれないが、Microsoft はそうではなかった。Nvidia の副社長 Andrew Bell 氏は、Microsoft に対し、同社のデータセンターで実際に使用されている既存のサーバーラックとは数インチ異なるフォームファクタを誇る新しい B200 GPU 専用のサーバーラック設計を購入するよう依頼したと報じられている。
マイクロソフトはNVIDIAの提案に反論し、新しいサーバーラックではNVIDIAのAI GPUとAMDのMI300X GPUなどの競合製品を容易に切り替えることができなくなると明らかにした。NVIDIAは最終的に譲歩し、マイクロソフトがB200 AI GPU用に独自のカスタムサーバーラックを使用することを許可したが、両巨大企業間の意見の相違はおそらくこれが最後ではないだろう。
念のため申し上げますが、NVIDIAはMGXにおいてOCPのOpen Rack(21インチ)と標準の19インチEIAラックの両方をサポートしています。MicrosoftはOCPラックを使用しているようですが、これはより新しく、密度の面でも優れているはずです。Microsoftは、現在も問題なく稼働している既存のインフラストラクチャを多数保有している可能性があり、それらすべてをアップグレードするにはかなりの費用がかかるでしょう。
このような論争は、NVIDIAがわずか1年の間にいかに巨大化し、価値を高めたかを示す兆候です。NVIDIAは今週初め(一時的に)最も時価総額の高い企業となりましたが、今後数ヶ月、数年の間にその地位は何度も変わる可能性があります。NVIDIAが支配権を握ろうとしているのはサーバーラックだけではありません。このテクノロジー大手は、需要を維持するために各顧客に割り当てるGPU在庫の量もコントロールしています。また、AI分野における優位性を活かし、独自のソフトウェアとネットワークシステムを推進することで、市場リーダーとしての地位を維持しようとしています。
Nvidiaは、1年半前にChatGPTの人気が爆発的に高まったことをきっかけに始まったAIブームの恩恵を大いに受けています。同時期に、NvidiaのAI特化型GPUは、GPUメーカーとして最も需要が高く、最も収益性の高い製品となり、驚異的な経済的成功をもたらしました。Nvidiaの株価は急騰し、現在では2023年初頭の8倍以上、2024年初頭の2.5倍以上となっています。
Nvidiaは、この追加収入を引き続き有効活用しています。同社の最新AI GPUであるBlackwell B200は、AIワークロード向けとして世界最速のグラフィックス・プロセッシング・ユニットとなります。「シングル」GB200スーパーチップは、最大20ペタフロップス(スパースFP8)の演算性能を実現し、理論上は前身のH200の5倍の速度を誇ります。もちろん、GB200は実際には2つのB200 GPUと1つのGrace CPUを大型のドーターボードに搭載したものであり、B200は2つの大型ダイを連結して使用しています。一方、「通常の」B200 GPUは、FP4(スパース)で最大9ペタフロップスに過ぎませんが、それでも非常に高い演算能力を備えています。また、AIトレーニング・ワークロードで使用されるFP16/BF16では、最大2.25ペタフロップスの高密度演算性能を実現します。
2024年6月20日現在、NVIDIAの株価は最高値140.76ドルからわずかに下落し、126.57ドルで取引を終えました。Blackwell B200の大量出荷が開始されれば、どうなるか注目です。その間、NVIDIAはAIへの注力を継続しています。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
Aaron Klotz 氏は Tom's Hardware の寄稿ライターであり、CPU やグラフィック カードなどのコンピューター ハードウェアに関するニュースを扱っています。