NVIDIAは、Grace CPUスーパーチップとGrace Hopperスーパーチップと呼ばれるArmベースのサーバーCPUの独自ラインナップを構築するという決定を下しました。これは、CPUとGPUを同一筐体に搭載した完全なシステム構築に向けた同社の方向性を示すものでした。この構想は本日、Computex 2022において、複数の大手サーバーOEMが2023年上半期に同社の新しいArm CPUとHopper GPUをベースにしたリファレンスシステムを数十種類提供すると発表し、現実に一歩近づきました。
Nvidia によれば、以下に説明するこれらの新しいシステムは、既存のリファレンス サーバーのラインナップと共存するため、同社は今後も当面の間、AMD と Intel の x86 プロセッサのサポートを継続する予定です。
簡単にご説明しますと、NVIDIAのGrace CPUスーパーチップは、同社初のデータセンター向けCPU専用Armチップであり、1枚のマザーボードに2つのチップが搭載されています。一方、Grace Hopperスーパーチップは、Hopper GPUとGrace CPUを同一ボードに搭載しています。NeoverseベースのCPUはArm v9命令セットをサポートし、システムにはNVIDIAが新たに開発したNVLink-C2Cインターコネクト技術によって統合された2つのチップが搭載されています。
NVIDIAは、Grace CPUスーパーチップが2023年初頭に発売され、ハイパースケールコンピューティング、データ分析、科学計算など、幅広いアプリケーション向けに市場最速のプロセッサになると発表しています。(このチップに関する詳細は、こちらをご覧ください。)
Asus、Gigabyte、Supermicro、QCT、Wiwynn、Foxconnといった大手OEM/ODM各社は、2023年上半期に数十種類の新しいリファレンスサーバー設計の発売を計画しており、これはNvidiaがGrace CPUシリコンの開発を着実に進めていることを示しています。OEM各社は、サーバーとベースボードの設計図を含むNvidiaの4つのリファレンスデザインのいずれかに基づいて、各サーバー設計を開発します。これらのサーバーは1Uと2Uのフォームファクターで提供され、1Uは液冷式となります。
クラウドグラフィックスおよびゲームアプリケーション向けのNVIDIA CGXシステムには、NVIDIAのA16 GPUと組み合わせたデュアルCPU Graceスーパーチップが搭載されています。NVIDIA OVXサーバーはデジタルツインおよびオムニバースアプリケーション向けに設計されており、デュアルCPU Graceを搭載していますが、より柔軟な組み合わせで、様々なNVIDIA GPUモデルとの組み合わせが可能です。
Nvidia HGXプラットフォームには2つのバージョンがあります。1つ目はHPCワークロード向けに設計されており、デュアルCPUのGraceのみを搭載し、GPUは搭載されておらず、OEM定義のI/Oオプションは搭載されていません。一方、右端には、AIトレーニング、推論、HPCワークロード向けのより充実した機能を備えたHGXシステムがあります。Grace CPU + Hopper GPUスーパーチップ、OEM定義のI/O、そしてNVLinkスイッチを介してサーバー外部と接続するための第4世代NVLinkオプションのサポートを備えています。
注目すべきは、Nvidia は CPU + GPU Grace Hopper Superchip モデルで NVLink オプションを提供しますが、デュアル CPU Grace Superchip を搭載したシステムでは提供しないことです。
こちらはHGXシステムに電力を供給できる2種類の2Uブレードです。デュアルCPU「HGX Grace」CPUスーパーチップブレードは、最大1TBのLPDDR5xメモリを搭載し、最大1TB/sのメモリ帯域幅を提供します。TDPは500Wで、水冷または空冷に対応し、ノードあたり2枚のブレードをサポートし、ラックあたり最大84ノードをサポートします。
HGX「Grace Hopper」スーパーチップブレードは、Grace CPU 1基とHopper GPUを搭載し、512GBのLPDDR5xメモリ、80GBのHBM3メモリ、そして最大3.5TB/sのメモリスループットを実現します。GPUを搭載していることから当然のことながら、このブレードはTDPエンベロープが1000Wと高く、空冷または液冷を選択できます。この大型ブレードにより、HGX Grace Hopperシステムはラックあたり42ノードまでしか搭載できません。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
当然のことながら、NVIDIAはこれらすべてのシステムに、同社をソリューションプロバイダーへと押し上げるもう一つの重要な機能を搭載しています。それは、Mellanox買収の成果として誕生した400GbpsのBluefield-3データ処理ユニット(DPU)です。これらのチップはCPUから重要な処理をオフロードし、ネットワーク、セキュリティ、ストレージ、そして仮想化/オーケストレーション機能を効率化します。
Nvidia はすでに Intel と AMD 両方の x86 CPU を搭載した CGX、OVX、HGX システムを提供しており、同社は今後もこれらのサーバーを提供し続け、Intel と AMD のシリコンを使用した新しいリビジョンを開発する予定であると語っています。
「x86は非常に重要なCPUであり、今日のNvidia GPU市場のほぼすべてを占めています。私たちはx86とArmベースのCPUを今後もサポートし、市場のお客様にアクセラレーションコンピューティングをどこに展開したいかという選択肢を提供していきます」と、Nvidiaの製品管理およびマーケティング担当シニアディレクター、パレシュ・カリヤ氏は語った。
しかし、NVIDIAがパフォーマンス面で妥協するわけではありません。同社は最近、天気予報アプリで自社のGrace CPUとIntelのIce Lakeを対決させるデモを行い、Armチップは2倍高速で2.3倍効率が高いと主張しました。現在、NVIDIAのOVXサーバーには、同じIntelチップが採用されています。
同社はAMDにも容赦していない。NVIDIAはまた、同社のGrace CPUスーパーチップが、SPECrate_2017_int_baseベンチマークにおいて、現行のDGX A100システムに搭載されている2つの前世代64コアEPYC Rome 7742プロセッサよりも1.5倍高速であると主張している。
NVIDIAのCPUへの初進出が、その謳い文句通りの成果を上げるかどうかは、まもなく明らかになるだろう。リファレンスとなるCGX、OVX、HGXシステムは、2023年前半に出荷される予定だ。
ポール・アルコーンはTom's Hardware USの編集長です。CPU、ストレージ、エンタープライズハードウェアに関するニュースやレビューも執筆しています。