52
イーロン・マスクは、次世代のGrok 3モデルのトレーニングには10万個のNvidia H100 GPUが必要になると述べた。
Nvidia GH200 SC23 Announcement
(画像提供:Nvidia)

テスラのCEOであり、xAIの創設者でもあるイーロン・マスク氏は、汎用人工知能(AGI)の発展について大胆な予測を示し、AI業界が直面する課題について議論しました。マスク氏は、AGIは早ければ来年、あるいは2026年までに人間の知能を超える可能性があると予測していますが、その訓練には膨大な数のプロセッサが必要となり、膨大な電力が必要になるとロイター通信は報じています。

マスク氏のベンチャー企業であるxAIは現在、Grok大規模言語モードの第2バージョンのトレーニングを行っており、次のトレーニングフェーズを5月までに完了する予定です。Grokバージョン2モデルのトレーニングには、最大2万個のNvidia H100 GPUが必要でした。マスク氏は、将来のバージョンアップではさらに多くのリソースが必要になると予想しており、Grokバージョン3モデルのトレーニングには約10万個のNvidia H100チップが必要になるとしています。

マスク氏によると、AI技術の進歩は現在、主に2つの要因によって妨げられている。1つは、NVIDIAのH100のような先進的なプロセッサの供給不足で、10万個をすぐに入手するのは容易ではないこと、もう1つは電力の供給不足だ。

NVIDIAのH100 GPUは、フル稼働時の消費電力が約700Wであるため、AIやHPCワークロード向けに10万個のGPUを搭載すると、70メガワットという驚異的な電力を消費する可能性があります。これらのGPUは動作にサーバーと冷却装置を必要とするため、10万個のNVIDIA H100プロセッサを搭載したデータセンターは約100メガワットの電力を消費すると言っても過言ではありません。これは、小規模な都市の消費電力に匹敵します。

マスク氏は、これまでコンピューティングGPUの供給が大きな障害となってきたものの、今後1~2年で電力供給がますます重要になると強調した。この二重の制約は、増大するコンピューティング需要に対応するためのAI技術の拡張がいかに困難であるかを浮き彫りにしている。

課題はあるものの、コンピューティングとメモリアーキテクチャの進歩により、今後数年間でますます大規模な大規模言語モデル(LLM)の学習が可能になるでしょう。NVIDIAはGTC 2024でBlackwell B200を発表しました。これは、数兆個のパラメータを持つLLMまで拡張可能なGPUアーキテクチャとプラットフォームです。これはAGI開発において重要な役割を果たすでしょう。

実際、マスク氏は、最も賢い人間よりも賢い人工知能が今後1、2年以内に出現すると考えています。「AGIを最も賢い人間よりも賢いと定義するなら、おそらく来年、いや2年以内でしょう」とマスク氏はX Spacesのインタビューで述べています。つまり、そろそろ『ターミネーター』をもう一度観て、未来のAGIがスカイネットよりも優しくなることを願うべき時が来たということですね。☺

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。