6
Nvidia、Tesla V100でデータセンターグラフィックスの提供を加速

エヌビディア テスラ V100

Nvidia Tesla V100 (画像提供:Nvidia)

Nvidiaは既に、Tesla V100を世界最先端のデータセンター向けグラフィックカードと謳っています。しかし今回、TechPowerUpが本日発表した、より高速で最新のTesla V100シリーズで、その性能をさらに向上させています。 

Tesla V100sはV100と物理的に同一です。同様のデュアルスロットPCIeアドインカード(AIC)設計を採用し、NVIDIAのリファレンスクーラーを搭載しています。ただし、NVIDIAがV100sをSXM2ボードフォームファクターで提供するかどうかは不明です。

Tesla V100sは、前モデルと同様に、NVIDIAの最新Voltaマイクロアーキテクチャをベースに、巨大なGV100シリコンを採用しています。TSMCの12nmオーブンで製造されたGV100ダイは、815mm²の大きさで、211億個のトランジスタを搭載しています。V100sは、引き続き5,120個のCUDAコアと640個のTensorコアを搭載しています。とはいえ、新しいV100sは、コアクロック速度の向上により、V100のどちらのバージョンよりも高いパフォーマンスを備えています。 

Nvidia Tesla V100s vs. Tesla V100 スペック

スワイプして水平にスクロールします

ヘッダーセル - 列 0テスラ V100s PCIeテスラ V100 SXM2テスラ V100 PCIe
アーキテクチャ(GPU)ボルタ(GV100)ボルタ(GV100)ボルタ(GV100)
CUDAコア5,1205,1205,120
テンソルコア640640640
倍精度パフォーマンス8.2 TFLOPS7.8 TFLOPS7 TFLOPS
単精度パフォーマンス16.4 TFLOPS15.7 TFLOPS14 TFLOPS
テンソルパフォーマンス130 TFLOPS125 TFLOPS112 TFLOPS
テクスチャユニット320320320
相互接続帯域幅32 GBps300 GBps32 GBps
メモリ容量32GB HBM216GB / 32GB HBM216GB / 32GB HBM2
メモリバス4,096ビット4,096ビット4,096ビット
メモリ帯域幅1,134 GBps900 GBps900 GBps
ROP128128128
L2キャッシュ6MB6MB6MB
TDP250W300W250W
トランジスタ数211億211億211億
ダイサイズ815 mm²815 mm²815 mm²

V100sは、同じPCIeフォーマットのV100と比較して、単精度および倍精度のパフォーマンスが最大17.1%向上しています。また、Tensorパフォーマンスも16.1%向上しています。NvidiaはV100のメモリクロックも若干高速化しています。

メモリに関しては、NVIDIAはV100sを32GBのHBM2搭載モデルのみで提供する可能性があるようです。V100と同様に16GBモデルも販売するかどうかは不明です。V100sは4,096ビットのメモリインターフェースを維持していますが、V100と比較してメモリ帯域幅が26%向上しています。

幸いなことに、V100sのアップグレードはグラフィックカードのTDP(熱設計電力)に影響を与えません。V100sの定格電力は依然として250Wです。そのため、電源要件(8ピンPCIe電源コネクタ2個)も変わりません。 

NvidiaはV100の価格を明らかにしていない。現行のV100の16GBモデルと32GBモデルは、Amazonでそれぞれ5,855ドルと7,200ドルで販売されている。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

Zhiye Liuは、Tom's Hardwareのニュース編集者、メモリレビュアー、そしてSSDテスターです。ハードウェア全般を愛していますが、特にCPU、GPU、そしてRAMには強いこだわりを持っています。