63
AI構築は成長を維持するために年間2兆ドルの収益が必要ですが、大規模な資金不足が迫っています。報告書によると、寛大な予測でも8000億ドルのブラックホールが浮き彫りになっています。
Metaのデータセンター内部
(画像提供:Meta)

AIの飽くなき電力需要は、コストがかさみ、持続不可能です。これが、ベイン・アンド・カンパニーの最新レポートの要点です。レポートでは、AIのコンピューティング需要を満たし続けるには、2030年までに世界のデータセンターへの年間投資額が5,000億ドルを超え、その設備投資を賄うには年間2兆ドルの収益が必要となるという、驚異的な数字が提示されています。ベインは、たとえ寛大な仮定の下でも、AI業界は8,000億ドルの資金不足に陥ると推定しています。

これは、現在AIを取り巻く議論に対する、厳しい現実を突きつけるものだ。兆単位のパラメータをめぐる誇大宣伝のサイクルを断ち切り、インフラの物理と経済の領域に真正面から立ち向かうものだ。もしベイン氏の言う通りなら、業界は電力制約、GPUの供給不足、そして資金のボトルネックが重なり合う壁へと突き進んでいることになる。

ベインの主張の核心は、コンピューティング需要の拡大が、それを供給するツールの拡大よりも速いペースで進んでいるという点だ。ムーアの法則は減速しているものの、AIワークロードの拡大は鈍化していない。ベインは、推論と学習の要件がトランジスタ密度の2倍以上の速度で増加しており、データセンター事業者はチップあたりの効率向上に頼るのではなく、力ずくでスケールアップせざるを得ないと推定している。その結果、2030年までに世界のAIコンピューティング容量は200GWに達し、その半分は米国だけで占められる可能性がある。

このような頭痛の種を解決するには、想像を絶するほど大規模な地域電力網のアップグレード、電気機器の何年もかかるリードタイム、そして数千トンもの高性能冷却装置が必要になる。さらに悪いことに、HBMやCoWoSといったコアとなるシリコンの多くは、既に供給が逼迫している。ベインのレポートでも言及されているように、NVIDIA自身の今年のコメントは、価格を除くあらゆる面で需要が業界の供給能力を上回っていることを示唆している。

資金が枯渇したり、停滞したりした場合、ハイパースケーラーはワットあたりおよび平方フィートあたりの収益率が最も高いシステムに注力するでしょう。その結果、熱密度と相互接続効率がBOM(部品表)の大部分を占める、NVIDIAのGB200 NVL72やAMDのInstinct MI300XポッドのようなフルラックGPUプラットフォームが優位になります。また、特に主流のワークステーション部品をベースにした、生産量の少ない構成の優先順位が下がり、結果として、ハイエンドデスクトップに搭載できたはずのチップの供給が減少することになります。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

ルーク・ジェームズはフリーランスのライター兼ジャーナリストです。法務の経歴を持つものの、ハードウェアやマイクロエレクトロニクスなど、テクノロジー全般、そして規制に関するあらゆることに個人的な関心を持っています。