
AI GPUの消費電力は近年着実に増加しており、AIプロセッサに搭載されるコンピューティングチップやHBMチップレットの増加に伴い、今後も増加が続くと予想されています。業界関係者によると、NVIDIAは次世代GPUの熱設計電力を6,000Wから9,000Wと見込んでいるとのことですが、韓国の主要研究機関であるKAISTの専門家は、AI GPUのTDPは今後10年間で15,360Wにまで増加すると予測しています。その結果、液浸冷却や埋め込み冷却など、非常に高度な冷却方法が必要になるでしょう。
KAISTと業界筋によると、AI GPUの予想される放熱量
スワイプして水平にスクロールします
世代 | 年 | GPUパッケージの総電力 | 冷却方法 |
ブラックウェル ウルトラ | 2025 | 1,400W | D2C |
ルービン | 2026 | 1,800W | D2C |
ルビン・ウルトラ | 2027 | 3,600W | D2C |
ファインマン | 2028 | 4,400W | 浸漬冷却 |
ファインマン・ウルトラ | 2029 | 6,000W* | 浸漬冷却 |
ポスト・ファインマン | 2030 | 5,920W | 浸漬冷却 |
ポスト・ファインマン・ウルトラ | 2031 | 9,000W* | 浸漬冷却 |
? | 2032 | 15,360W | 組み込み冷却 |
*業界筋
KAISTの研究者は、AI GPUモジュール(特にNvidiaのFeynman)の消費電力が4,400Wになると予測していますが、業界関係者の中には、NvidiaのFeynman UltraのTDPが6,000Wに増加すると考えている人もいます。このような極端な熱負荷には、GPU-HBMモジュール全体を熱流体に浸す液浸冷却の使用が必要になります。さらに、このようなプロセッサとそのHBMモジュールは、放熱専用のシリコン基板の垂直チャネルであるサーマルビア(TTV)を介して導入されると予想されています。これらは、HBMモジュールのベースダイに埋め込まれた熱結合層と温度センサーと組み合わせられ、リアルタイムの熱監視とフィードバック制御を実現します。
浸漬冷却は、ポスト フェインマン GPU アーキテクチャによってパッケージあたりの TDP が 5,920W (ポスト フェインマン) または 9000W (ポスト フェインマン ウルトラ) にまで増加する 2032 年までは十分な性能を発揮すると予想されます。
画像
1
の
3

GPUモジュールの主な電力消費源はコンピューティングチップレットであることに留意する必要があります。しかし、ポストFeynmanではHBMスタックの数が16に増加し、HBM6ではスタックあたりの消費電力が120Wに増加するため、メモリの消費電力は約2,000Wとなり、これはパッケージ全体の約3分の1に相当します。
KAISTの研究者たちは、2035年までにAI GPUの消費電力が約15,360に増加し、コンピューティングチップレットとメモリチップレットの両方に組み込み型冷却構造が必要になると予測しています。専門家たちは、2つの重要なイノベーションを挙げています。1つは、ホットスポットから冷却インターフェースへ熱を横方向に移動させる熱伝導線(TTL)で、もう1つは、HBMスタックを垂直方向に冷却液が流れるようにする流体TSV(F-TSV)です。これらの技術は、インターポーザーとシリコンに直接統合され、熱安定性を維持します。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
2038年までに、完全統合型サーマルソリューションはさらに普及し、高度化するでしょう。両面インターポーザーを使用することで、両面への垂直スタッキングが可能になり、流体冷却が全体に組み込まれます。また、GPUオントップアーキテクチャはコンピューティング層からの放熱を優先し、同軸TSVは信号整合性と熱流のバランスをとるのに役立ちます。
Google ニュースで Tom's Hardware をフォローすると、最新のニュース、分析、レビューをフィードで受け取ることができます。「フォロー」ボタンを忘れずにクリックしてください。
アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。