3
Nvidia、GTC 2018でQuadro GV100、新型NVSwitch、32GB Tesla V100を発表

NVIDIA CEOのジェンスン・フアン氏は、サンノゼで開催されたGTC 2018で基調講演を行いました。フアン氏は、同社の新型DGX-2システムを発表しました。同氏はこれを「世界最大のGPU」と称しています。また、新型Quadro GV100 GPU、32GBのV100 GPU、そして最大16基のGPUを連携させるNVIDIAの新型NVSwitchテクノロジーも披露しました。さらに、ディープラーニングや自動運転といった主要分野における進歩についても概説しました。

NVIDIAは、自動運転やIoTアプリケーションへの進出を進めながらポートフォリオの多様化を進め、同時にディープラーニングや推論アプリケーションにおけるデータセンターの優位性も維持しています。以下は、Huang氏が基調講演で発表した内容の一部です。

Nvidia Quadro GV100 GPU

フアン氏は、NVIDIAが最近発表したRTXレイトレーシング技術をワークステーションに導入するために設計された新しいQuadro GV100 GPUを発表しました。NVIDIAのRTXレイトレーシング技術は、ソフトウェアとハ​​ードウェアを組み合わせることで、アプリケーションがリアルタイムのレイトレーシング効果を生成できるようにするものです。

Quadro GV100は32GBのメモリを搭載しており、後述の改良版Tesla V100と同じ基本設計を採用しています。GV100は、倍精度演算で最大7.4テラフロップス、単精度演算で最大14.8テラフロップスの性能を発揮します。NVIDIAによると、このカードは最大118.5テラフロップスのディープラーニング性能(Tensor Coreの性能指標)も実現可能です。 

これらのカードはNVLink 2相互接続テクノロジーもサポートしており、2台のデバイスをペアリングして接続することが可能です。これにより、合計64GBのHBM2メモリ、10,240個のCUDAコア、そして236個のTensorコアを1台のワークステーションに統合することが可能になります。 

Nvidia、Tesla V100のメモリを2倍に

Tesla V100は、これまで製造された中で最大の単一ダイで製造されています。TSMCの12nm FFNプロセスで製造された210億個のトランジスタを搭載した815mm 2 Voltaダイは、ほぼフルレチクルサイズです。昨年初めに紹介したように、このGPUはAIワークロード向けに5,120個のCUDAコアを搭載していますが、十分な処理能力に加え、Nvidiaは16GBのHBM2メモリを追加搭載することで強化しました。Nvidiaによると、32GBの大容量メモリは、メモリ制約の厳しいHPCワークロードにおいてパフォーマンスを2倍に向上させるとのことです。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

16GB テスラ V100

16GB テスラ V100


V100は、米国がスーパーコンピューティングのリーダーシップを取り戻すのに役立つIBMのPower System AC922など、地球上で最も最先端のシステムの要として機能しますが、NvidiaのDGXシステムの重要なコンポーネントとしても機能します。強化されたTesla V100 32GB GPUは現在、DGXシステムで利用可能です。Dell EMC、HPE、IBMなどのいくつかのブルーチップOEMは、強化されたカードを搭載した新しいシステムが第2四半期に登場すると発表しました。Nvidiaは、おそらくより高さのあるHBM2の8Hiスタックを使用する新しいメモリサブシステムの技術的な詳細を公開していませんが、私たちは詳細を調査しています。 

NVSwitch が DGX-2 システムを最大 2 ペタフロップスまで強化

Nvidia のオリジナル DGX システムには、1 つのシャーシに 8 つの V100 が詰め込まれており、40,960 個の CUDA コアから 960 TFLOP を超えるパワーを提供します。

DGX-2システムは、新型32GB Tesla V100を16基搭載し、最大2ペタフロップスの演算性能を実現します。最大1.5TBのRAM、InfiniBandまたは100GBeネットワーク、そして2基のXeon Platinumプロセッサを搭載しています。消費電力は10kWです。

DXG-2は、NVIDIAのNVSwitchテクノロジーを採用した初のシステムでもあります。NVSwitchは、柔軟性の高い新しいGPUインターコネクトファブリックです。このファブリックはノンブロッキングクロスバースイッチとして機能し、最大16基のGPUが最大2.4TB/秒の速度で通信できるようにします。

NVSwitchトポロジは、16基のGPUを統合メモリ空間を持つ単一のユニットに統合し、Jensen氏が「世界最大のGPU」と称するシステムを実現します。このシステムは合計512GBのHBM2メモリを搭載し、最大14.4TB/秒のスループットを実現します。CUDAコアは合計81,920個です。

この新システムは、開発者がニューラルネットワークの規模を拡張できるように設計されています。Huang氏は、DGX-2には12個のNVSwitchが搭載されており、各NVSwitchにはTSMCの12nm FinFETプロセスで製造された120億個のトランジスタが搭載されていることを明らかにしました。各スイッチには18個の8ビットNVLink接続が搭載されています。IBMは2019年にNVLink 3.0を搭載して発売されるPower9システムを発表しており、NVSwitchがこの相互接続技術を活用することが期待されます。 

Huang 氏は、DGX-2 システムが現在 399,000 ドルで入手可能であると発表した。

ジェンセン氏はまた、NVIDIA のオープンソース Deep Learning Accelerator (NVLDA) アーキテクチャを ARM の機械学習用 Project Trillium プラットフォームに統合するための同社と ARM の提携についても話し、自律走行車をテストするためのデュアルサーバー コンピューティング プラットフォームである DRIVE Con​​stellation シミュレーション システムについても詳しく説明しました。

私たちは、最新かつ最高の GPU テクノロジーを探すためにこのショーに参加していますので、どうぞお楽しみに。

ポール・アルコーンはTom's Hardware USの編集長です。CPU、ストレージ、エンタープライズハードウェアに関するニュースやレビューも執筆しています。