Nvidiaは既に、Tesla V100を世界最先端のデータセンター向けグラフィックカードと謳っています。しかし今回、TechPowerUpが本日発表した、より高速で最新のTesla V100シリーズで、その性能をさらに向上させています。
Tesla V100sはV100と物理的に同一です。同様のデュアルスロットPCIeアドインカード(AIC)設計を採用し、NVIDIAのリファレンスクーラーを搭載しています。ただし、NVIDIAがV100sをSXM2ボードフォームファクターで提供するかどうかは不明です。
Tesla V100sは、前モデルと同様に、NVIDIAの最新Voltaマイクロアーキテクチャをベースに、巨大なGV100シリコンを採用しています。TSMCの12nmオーブンで製造されたGV100ダイは、815mm²の大きさで、211億個のトランジスタを搭載しています。V100sは、引き続き5,120個のCUDAコアと640個のTensorコアを搭載しています。とはいえ、新しいV100sは、コアクロック速度の向上により、V100のどちらのバージョンよりも高いパフォーマンスを備えています。
Nvidia Tesla V100s vs. Tesla V100 スペック
スワイプして水平にスクロールします
ヘッダーセル - 列 0 | テスラ V100s PCIe | テスラ V100 SXM2 | テスラ V100 PCIe |
---|---|---|---|
アーキテクチャ(GPU) | ボルタ(GV100) | ボルタ(GV100) | ボルタ(GV100) |
CUDAコア | 5,120 | 5,120 | 5,120 |
テンソルコア | 640 | 640 | 640 |
倍精度パフォーマンス | 8.2 TFLOPS | 7.8 TFLOPS | 7 TFLOPS |
単精度パフォーマンス | 16.4 TFLOPS | 15.7 TFLOPS | 14 TFLOPS |
テンソルパフォーマンス | 130 TFLOPS | 125 TFLOPS | 112 TFLOPS |
テクスチャユニット | 320 | 320 | 320 |
相互接続帯域幅 | 32 GBps | 300 GBps | 32 GBps |
メモリ容量 | 32GB HBM2 | 16GB / 32GB HBM2 | 16GB / 32GB HBM2 |
メモリバス | 4,096ビット | 4,096ビット | 4,096ビット |
メモリ帯域幅 | 1,134 GBps | 900 GBps | 900 GBps |
ROP | 128 | 128 | 128 |
L2キャッシュ | 6MB | 6MB | 6MB |
TDP | 250W | 300W | 250W |
トランジスタ数 | 211億 | 211億 | 211億 |
ダイサイズ | 815 mm² | 815 mm² | 815 mm² |
V100sは、同じPCIeフォーマットのV100と比較して、単精度および倍精度のパフォーマンスが最大17.1%向上しています。また、Tensorパフォーマンスも16.1%向上しています。NvidiaはV100のメモリクロックも若干高速化しています。
メモリに関しては、NVIDIAはV100sを32GBのHBM2搭載モデルのみで提供する可能性があるようです。V100と同様に16GBモデルも販売するかどうかは不明です。V100sは4,096ビットのメモリインターフェースを維持していますが、V100と比較してメモリ帯域幅が26%向上しています。
幸いなことに、V100sのアップグレードはグラフィックカードのTDP(熱設計電力)に影響を与えません。V100sの定格電力は依然として250Wです。そのため、電源要件(8ピンPCIe電源コネクタ2個)も変わりません。
NvidiaはV100の価格を明らかにしていない。現行のV100の16GBモデルと32GBモデルは、Amazonでそれぞれ5,855ドルと7,200ドルで販売されている。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
Zhiye Liuは、Tom's Hardwareのニュース編集者、メモリレビュアー、そしてSSDテスターです。ハードウェア全般を愛していますが、特にCPU、GPU、そしてRAMには強いこだわりを持っています。