
AI GPUの開発は猛スピードで進んでおり、イーロン・マスク氏はこの革命の最前線に立ちたいと考えている。SpaceXとTeslaのCEOであるマスク氏は、Xの投稿で、来年の夏までにNVIDIAの最新Blackwell B200 GPUを30万個購入する意向を明らかにした。この新型GPUは、現在10万個の前世代H100 GPUで構成されているXの既存のAI GPUクラスターをアップグレードすることになる。
100,000 個の H100 GPU はすでに膨大な計算能力ですが、AI GPU の開発ペースを考えると、主に 1 ギガワットのエネルギー消費量のため、X の膨大な H100 GPU アレイを長期間保持する価値はない、とイーロンは述べています。
技術の進歩のペースを考えると、H100に1GWの電力を投入する価値はありません。@xAIの10万台のH100液冷トレーニングクラスターは数ヶ月以内に稼働予定です。次の大きなステップは、おそらく来夏にCX8ネットワークを搭載した約30万台のB200を導入することになるでしょう。2024年6月2日
Xは、AIボット「Grok」に膨大な数のAI GPUを使用しています。このAIは、ChatGPT/CopilotやGeminiと比べて、より率直な回答や、機知に富んだユーモアのある回答を提供するよう設計された、Grok-1と呼ばれる自作言語で開発されています。つまり、AIボットから「ロボット」的な側面を排除しようとしているのです。この新しいAIボットは現在Xユーザーにご利用いただけますが、AIボットにアクセスするにはXプレミアムユーザーである必要があります。
マスク氏の論理には一理ある。AI向けGPU開発競争は、テクノロジー業界において近年最も熾烈な競争の一つであり、1990年代から2000年代にかけてのCPU開発競争に匹敵する。NVIDIAの新しいBlackwell B200は、H100から大幅にアップグレードされており、学習性能は4倍、推論性能は30倍に向上している。
技術的には、B200は確かに消費電力が多い。しかし、B200の驚異的なパフォーマンス向上により、チップはH100よりも大幅に効率的に動作する。マスク氏の場合、10万個のH100を、消費電力がさらに多い3倍のGPUと交換しても、GPUの驚異的なAI性能向上により、依然として純利益となる。
マスク氏が30万個のB200 GPUをいつ全て手に入れるのか、興味深いところです。NVIDIAのH100が私たちに教えてくれたことがあるとすれば、それはAI GPUの需要が常に実際の供給量を上回るということです。おそらく2023年のような状況が繰り返されるでしょう。X、Meta、Google、Microsoftなど、大手AI顧客は皆、少なくとも今後数ヶ月間はNVIDIAが生産できる限りのB200を手に入れようと争うでしょう。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
Aaron Klotz 氏は Tom's Hardware の寄稿ライターであり、CPU やグラフィック カードなどのコンピューター ハードウェアに関するニュースを扱っています。