
今週も、エロン・マスク氏のスーパーコンピューティングへの取り組みは前進を続け、同氏はXで新たに「Cortex」と改名したAIスーパークラスターの動画を公開した。テスラの「ギガ・テキサス」工場の最近の拡張には7万台のAIサーバーが収容され、稼働開始時には130メガワット(MW)の冷却および電力が必要となるが、2026年までに500MWにまで拡張される予定だ。
今日のCortex内部のビデオ。オースティンのテスラ本社で、現実世界のAI問題を解決するために構築されている巨大な新しいAIトレーニングスーパークラスターです。pic.twitter.com/DwJVUWUrb5 2024年8月26日
マスク氏がCortexスーパークラスターを撮影した動画では、膨大な数のサーバーラックの組み立て作業の様子が映し出されている。ぼやけた映像から判断すると、ラックは1列あたり16台のコンピューティングラックで構成され、4台ほどの非GPUラックが列を分割しているように見える。各コンピューティングラックには8台のサーバーが収容されている。20秒の動画では16~20列のサーバーラックが映っているため、ざっと計算すると2,000台のGPUサーバーが映っていることになるが、これは想定されるフルスケールの展開数の3%にも満たない。
マスク氏はテスラの7月の決算説明会で、Cortexスーパークラスターはテスラ史上最大のトレーニングクラスターとなり、「5万台の[NVIDIA] H100と、当社製ハードウェア2万台」を搭載すると述べた。これはマスク氏が以前に明らかにした数字よりも小さい。6月のツイートでは、CortexにはテスラのDojo AIハードウェア5万台が搭載されると推定されていた。また、テスラCEOの以前の発言からも、テスラ独自のハードウェアは後日稼働開始予定であり、Cortexは発売時には完全にNVIDIA製プロセッサを搭載すると予想されている。
イーロン・マスク氏のTwitterによると、Cortexトレーニングクラスターは「現実世界のAI問題を解決する」ために構築されているとのことだ。テスラの2024年第2四半期決算説明会では、これはテスラの完全自動運転(FSD)自動操縦システムのトレーニング(一般向けテスラ車と有望な「サイバータクシー」に搭載予定)と、2025年に限定生産開始が予定されている自律型ヒューマノイドロボット「オプティマス」のAIトレーニングを意味するとされている。オプティマスはテスラの製造工程で使用される予定だ。
Cortexが初めてマスコミの注目を集めたのは、6月にマスク氏が公開した、スーパークラスター全体を冷却するための巨大ファンの開発でした。このファンスタックは、Supermicroが提供する液体冷却ソリューションを冷却します。このソリューションは、最終的に500MWの冷却能力とフルパワー時の電力供給能力を備えています。ちなみに、平均的な石炭火力発電所の出力は約600MWです。
Cortexは、イーロン・マスク氏が開発中のスーパーコンピューター群に加わります。現在稼働しているマスク氏のデータセンターの第一号は、xAIが所有し、10万台のNvidia H100を搭載したメンフィス・スーパークラスターです。メンフィス・スーパークラスターの10万台のサーバーはすべて単一のRDMA(リモート・ダイレクト・メモリ・アクセス)ファブリックで接続されており、冷却システムもSupermicroの支援を受けています。マスク氏はまた、ニューヨーク州バッファローに5億ドル規模のスーパーコンピューターDojoを建設する計画も発表しています。こちらもテスラ傘下の施設です。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
メンフィス・スーパークラスターもH100ベースを30万基のB200 GPUにアップグレードする予定だが、設計上の欠陥によるブラックウェルの生産遅延により、この大規模注文は数ヶ月延期されている。NVIDIA AI GPUの最大の単一顧客の一つであるマスク氏は、ジェンスン・フアンCEOの「買えば買うほど節約になる」という計算に従っているようだ。マスク氏と彼のスーパーコンピューターコレクションにこの計算が当てはまるかどうかは、時が経てば分かるだろう。
サニー・グリムはTom's Hardwareの寄稿ライターです。2017年からコンピューターの組み立てと分解に携わり、Tom'sの常駐若手ライターとして活躍しています。APUからRGBまで、サニーは最新のテクノロジーニュースを網羅しています。