
AIワークロード向けの現在最も強力な最新データセンターGPUは、1台あたり最大700ワットの電力を消費することがあります。年間使用率が61%の場合、GPU1台あたり年間約3,740,520Wh、つまり3.74MWhの電力を消費することになります。これは、特に昨年だけで販売されたGPUの総数に着目すると、電力供給と環境への影響に関する懸念を一層高めます。
NVIDIAは昨年、データセンター向けGPUを376万台販売し、市場の98%を占めました。Intel、AMD、その他のプレーヤーによる残りの2%を加えると、2023年には383万6000台以上のGPUがデータサーバーに供給されることになります。
この数値に昨年のデータセンターGPUの総出荷数を掛けると、年間14,348.63GWhの電力消費量となります。これをアメリカの平均的な家庭の年間消費電力量10,791kWhと比較すると、昨年販売されたデータセンターGPUは、130万世帯の年間消費電力量と同等の電力を消費していることになります。州レベルで見ると、カリフォルニア州エネルギー委員会の報告によると、2022年の同州の電力生産量は203,257GWhで、データセンターGPUは州の年間電力生産量の約7%を消費していることになります。
ただし、これらはあくまでデータセンター向けGPUであることを覚えておいてください。このデータには、CPU、冷却システム、その他データセンターの正常な稼働に必要な機器は含まれていません。例えば、ほとんどのRTX 4090は最低850ワットの電源を推奨していますが、中には1,000ワット、あるいは1,200ワットを必要とするものもあります。この最小値で考えると、昨年建設されたサーバーやデータセンターは年間25GWh以上の電力を必要とします。これらの数値には、2022年以降に建設されるデータセンターは含まれておらず、今年新たに稼働を開始する多くのデータセンターも考慮されていません。
業界アナリストは、データセンターGPU市場が2028年まで前年比34.6%の成長を続けると予測しています。つまり、今後数年間でデータセンターGPUの生産量が増える可能性が高いということです。さらに、NVIDIAの次世代AI GPUは、現行の700ワットH100よりも多くの電力を消費すると予想されています。データセンターのコンピューターの消費電力が今後数年間維持されたとしても(おそらく維持されないでしょうが)、データセンターの電力需要は市場の成長に比例して増加するはずです。
データセンターのこの前例のない増加は、電力インフラへの懸念を高めています。実際、米国政府は既にテクノロジー企業とAI関連の電力需要について協議を進めており、特にこれらの新しいデータセンターが電力網に過度の負担をかける可能性を懸念しています。Metaの創設者マーク・ザッカーバーグ氏は、電力の制約がAIの成長を阻害するとさえ述べています。特にEnerdataは、世界の電力生産量は過去10年間で年間わずか2.5%しか増加していないと指摘しています。
しかし、テクノロジー企業はこの問題に目をつぶっていません。伝統的にソフトウェア企業であるマイクロソフトでさえ、自社のデータセンター向けに小型モジュール原子炉への投資を検討しています。これは特に重要です。なぜなら、同社はOpenAIと提携し、1,000億ドル規模のAIスーパーコンピューターを開発しており、その開発には膨大な電力が必要になるからです。
データ駆動型社会におけるAIの台頭は、コンピューティングに必要な電力を大量に必要とすることを意味します。さらに、EVのように、同様に大量の電力を必要とする他の次世代テクノロジーも忘れてはなりません。消費電力を抑えつつ、より多くの電力を供給するチップ(およびモーター)を開発する方法が見つからなければ、必要な場所に電力を供給するために、発電施設の増設と支援インフラのアップグレードが必要になるでしょう。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
ジョウィ・モラレスは、長年のテクノロジー業界での実務経験を持つテクノロジー愛好家です。2021年から複数のテクノロジー系出版物に寄稿しており、特にテクノロジー系ハードウェアとコンシューマーエレクトロニクスに興味を持っています。