46
NvidiaのH100 GPUは一部の国よりも多くの電力を消費します。各GPUは700Wの電力を消費し、来年には350万台が販売されると予想されています。
Nvidia Hopper H100 GPU および DGX システム
(画像提供:Nvidia)

NVIDIAは文字通り大量のH100 AI GPUを販売しており、1台あたりの消費電力は最大700Wに達します。これは平均的なアメリカの家庭の消費電力を上回ります。NVIDIAがAIワークロード向けに新型GPUを大量に販売していることから、これらのGPUの総消費電力はアメリカの大都市に匹敵すると予測されています。簡単な計算で、これらのGPUの消費電力はヨーロッパのいくつかの小国よりも高いことも明らかになりました。

フランスのシュナイダーエレクトリック社は10月に、現在AIアプリケーションに使用されているデータセンターの総電力消費量はキプロス共和国の電力消費量に匹敵すると推定しました。しかし、最も人気のあるAIプロセッサであるNVIDIAのH100とA100の電力消費量はどうでしょうか? 

マイクロソフトのデータセンター技術ガバナンスおよび戦略担当主任電気技師、ポール・チャーノック氏は、NVIDIAのH100 GPUが数百万台導入される2024年末までに、アリゾナ州フェニックスの全世帯の消費電力を上回る電力を消費するだろうと予測しています。ただし、総消費電力はテキサス州ヒューストンのような大都市よりも低くなります。

「これはNVIDIAのH100 GPUで、ピーク時の消費電力は700Wです」とチャーノック氏はLinkedInの投稿で述べています。「年間利用率61%で、これは平均的なアメリカの世帯居住者(1世帯2.51人)の消費電力に相当します。NVIDIAは、2024年のH100 GPUの販売台数を150万~200万台と推定しています。都市別の住宅電力消費量と比較すると、NVIDIAのH100チップはテキサス州ヒューストンに次ぎ、アリゾナ州フェニックスを上回り、5番目に大きな都市となるでしょう。」

この数字を具体的に説明すると、ジョージア、リトアニア、グアテマラなどの国の年間電力消費量は約13,092GWhです。この消費電力量は一見衝撃的に思えますが、AIやHPC向けGPUの効率は向上している点に注目すべきです。そのため、NvidiaのBlackwellベースのB100はH100の消費電力を上回る可能性が高いものの、より高いパフォーマンスを提供し、消費電力あたりの処理能力は向上すると考えられます。 

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。