NVIDIAのCEO、ジェンスン・フアン氏は、GTC 2018でDGX-2サーバーを「世界最大のGPU」と紹介したことで有名です。フアン氏のこの大胆な主張の根拠は、このシステムが実際には16基の強力なTesla V100 GPUと合計512GBものHBM2メモリを搭載し、ホストシステムからは統合メモリ空間を持つ1つの巨大なGPUとして認識されるという事実でした。この膨大なコンピューティングパワーは、データセンターにおいて、要求の厳しい機械学習ワークロードを高速処理するために利用されています。しかし今、NVIDIAはさらなるパフォーマンスを引き出すために、電力制限を撤廃しました。
消費電力の増加により、システムの消費電力は10kWから12kWに増加し、パフォーマンスは2ペタフロップスから2.1ペタフロップスに向上します。これは、消費電力の大幅な増加に対してパフォーマンスの向上はわずかであるように思われます。しかし、GPUを高周波数で動作させることによるパフォーマンス向上は、ワークロードによって影響度が異なる場合があり、パフォーマンス測定に使用したテストでは、消費電力が2kW増加することによるメリットを完全に定量化できない可能性があります。
12kWの消費電力を8U筐体に詰め込むのは、まさに偉業と言えるでしょう。初代DGXでは、システムの駆動に必要な電流量を削減するために48Vの電力分配サブシステムを採用していました。消費電力の増加は過剰な発熱につながる可能性がありますが、NVIDIAは、消費電力の増加に対応するためにシステムの冷却システムを強化する必要があるかどうかについて、コメントしていません。
いずれにせよ、NVIDIAが電圧/周波数曲線を高く設定し、GPUの性能をさらに引き出すという選択は、成熟した設計において性能を向上させるために残された数少ない容易な手段の一つです。同社は今年初めにHBM2の容量を16GBから32GBに増強しました。新しいTuringアーキテクチャの発表後も、NVIDIAはVolta V100 GPUがAIワークロード向けのソリューションとして今後も継続すると繰り返し表明しているため、これは機械学習ワークロード向けの新しいアーキテクチャを導入するまでの一時的な対策となる可能性があります。
オリジナルのDGX-2の小売価格は40万ドルですが、NVIDIAはDGX-2Hの価格改定に関する我々の問い合わせにまだ回答していません。しかし、諺にあるように、聞かなければならないなら、おそらく買えないのでしょう。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。