93
Nvidia、800億個のトランジスタを搭載したHopper H100 GPUを発表

NVIDIAは本日、GPUテクノロジーカンファレンス(GTC)で、HopperアーキテクチャとNVIDIA H100 GPUの詳細を発表しました。NVIDIAが次世代GPUに取り組んでいることは以前から知られていましたが、今回、具体的な仕様が明らかになりました。HopperアーキテクチャとH100 GPUは、将来のGeForceカードに搭載されるコンシューマー向けアーキテクチャであるAdaとは別物です。NVIDIAはAdaの詳細をまだ明らかにしておらず、Hopper H100はVolta V100の後継となるAmpere A100の後継となります。これらはすべてデータセンター向けであり、AMDなどの競合との競争が激化しています。

インスティンクト MI250/250X

そして新たに発表された

インスティンクト MI210

Nvidia は HPC における主導権を奪還することを目指しています。

H100は、その歴史から予想される通り、AI機能に重点を置いたスーパーコンピューター向けに設計されました。現行のA100と比較して、数々のアップデートとアップグレードが施されており、いずれも新たなレベルのパフォーマンスと効率性を実現する設計となっています。Hopperは800億個のトランジスタを搭載し、カスタムTSMC 4Nプロセス(これはNVIDIAの4nmプロセス向けであり、TSMCが提供している汎用のN4 4nmプロセスとは別物です)で製造されています。ちなみに、A100 GPUのトランジスタ数は「わずか」540億個でした。

NVIDIAはコア数やクロック周波数を公表していませんが、その他の詳細は明らかにしています。H100は、最大900GB/秒の帯域幅を実現するNVIDIAの第4世代NVLinkインターフェースをサポートしています。また、NVLinkを使用しないシステム向けに、最大128GB/秒のPCIe 5.0もサポートしています。改良されたNVLink接続はA100の1.5倍の帯域幅を提供し、PCIe 5.0はPCIe 4.0の2倍の帯域幅を提供します。

Nvidia DGX H100、スーパーポッド、Eos スーパーコンピュータ

画像

1

3

Nvidia Hopper H100 GPU および DGX システム
(画像提供:Nvidia)

もちろん、Nvidia H100 GPUはHopperの大きな魅力の一部に過ぎません。A100と同様に、Hopperは当初、新しいDGX H100ラックマウントサーバーとして提供されます。各DGX H100システムは8基のH100 GPUを搭載し、最大32PFLOPSのAIコンピューティングと0.5PFLOPSのFP64演算性能を実現し、640GBのHBM3メモリを搭載しています。DGX H100は、3.6TB/sの二分帯域幅も備えています。

NVIDIAは複数のDGX H100サーバーを使用し、32台のDGX H100システムを搭載したDGX SuperPodへとスケールアウトします。これらのシステムは、最新のNVLinkスイッチシステムとQuantum-2 InfiniBandネットワークで接続されています。これにより、1台のH100 SuperPodは256基のH100 GPU、20TBのHBM3メモリ、最大1エクサフロップスのAIコンピューティング能力を備えています。また、70.4TB/秒の二分帯域幅も実現しています。

当然のことながら、スーパーコンピュータは複数のSuperPodを使用して構築できます。NVIDIAは、Seleneの後継となる新しいスーパーコンピュータ「Eos」を発表しました。Eosは、18台のH100 SuperPod、576台のDGX H100システム、360台のNVLinkスイッチで構成され、FP64で275PFLOPSの演算性能を発揮します。NVIDIAのAI重視の将来においてさらに重要なのは、FP8で18EFLOPS、FP16で9EFLOPSのAI演算性能を発揮することです。

ホッパー、グレースに会う

Grace CPU「スーパーチップ」搭載の Nvidia Hopper H100

(画像提供:Nvidia)

これまでHopper GPUとその様々なバージョンについてお話ししてきましたが、その名の通り、もう片方のGrace CPUについても触れておく必要があります。Nvidia Grace CPUの詳細については別の記事で詳しく説明していますが、NvidiaはGrace CPUとHopper GPUを1つのモジュールに統合し、900GB/秒のコヒーレントインターフェースを備えた「Grace Hopper Superchips」を提供する予定です。Hopperは今年第3四半期に登場予定ですが、Grace Hopper Superchipsは2023年第3四半期まで提供されません。これらのスーパーチップが将来のDGXサーバーに搭載されるかどうかは不明ですが、Arm買収の失敗によってNvidiaのCPU開発への意欲が失われたわけではないことは間違いありません。

最後に、Hopperが今年後半にどのような製品を発表するのか楽しみではありますが、私たちがより関心を寄せているのは、これら全てが消費者にとって何を意味するのかということです。前世代のA100はTSMC 7N(Nvidia向けのカスタムN7)を採用していましたが、Nvidiaの他のAmpereラインナップではSamsung 8Nが採用されていました。噂されているAda GPUもHopperよりもやや低速なプロセスノードを採用する可能性が高いですが、今のところTSMC N5が採用される可能性が高いと見られています。これは4Nとそれほど変わらないかもしれません。

NvidiaはAda GPUにHBM3を採用する可能性は低いでしょうが、Hopper H100でA100の3倍の性能を約束していることは、より高性能なコンシューマー向け製品に十分な余地が残されていることを意味します。多くの人が、製品スタックの最上位で少なくとも2倍の性能向上が見られることを期待しており、仮にGeForce RTX 4090がRTX 3090の2倍の速度になる可能性があることを意味します。Hopperについてこれまでに分かってきたことを考えると、そのような性能向上はそれほど非現実的ではないかもしれません。一方で、次世代では600WのGeForce GPUが登場するという噂もあり、HopperはNvidiaが性能向上のために電力の限界に挑戦する意思があることを証明しています。

Hopperについては、まだ不明な点が多くあります。おそらく、今年後半に発売されるNvidia H100は、GH100ダイを完全に有効化しないと思われ、歩留まりが非常に低くなるためです。しかし、コア数やその他の要素がいくつ搭載されているかは不明です。Nvidiaは6つのHBMスタックを維持するようです。そのうち1つはECC用で、HBM3パッケージあたり16GBです。クロック速度も不明で、以前のDGX A100と同様に、価格は非常に高くなる可能性があります。Nvidiaは、Grace CPUをベースにした将来のDGX H100も開発中であることはほぼ確実です。これまでと同様に、Nvidiaは近い将来、Hopperアーキテクチャ全体に関するホワイトペーパーを発表する予定で、その際にさらに詳しい情報をお伝えする予定です。

スライド資料の全文にご興味のある方は、以下をご覧ください。基調講演では他にもたくさんの興味深い内容が議論されましたので、もし時間があれば(そして前回見逃してしまった方は)、ぜひご覧ください。

画像

1

103

Nvidia GTC Spring 2022 のフルスライドデッキ
(画像提供:Nvidia)

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

ジャレッド・ウォルトンは、Tom's Hardwareのシニアエディターで、GPU全般を専門としています。2004年からテクノロジージャーナリストとして活躍し、AnandTech、Maximum PC、PC Gamerなどで執筆活動を行っています。初代S3 Virgeの「3Dデセラレータ」から最新のGPUまで、ジャレッドは最新のグラフィックストレンドを常に把握しており、ゲームパフォーマンスに関する質問は彼にお任せください。