
NvidiaのAmpere A100は、かつてはトップクラスのAIアクセラレータの一つでしたが、新型Hopper H100、そしてH200や近日発売予定のBlackwell GB200にその座を奪われました。チップメーカーは、市場には登場しなかった強化版の実験を行っていたか、あるいは米国の対中制裁を受けて企業がA100を密かに改造し、さらに高速化を図った可能性があります。XユーザーのJiacheng Liu氏は最近、中国の中古市場で、Nvidiaの「標準」A100よりも大幅に高いスペックを誇る様々なA100のプロトタイプを発見しました。
強化された機能にもかかわらず、A100 7936SP(7936個のシェーダプロセッサを搭載していることから非公式の名称)は、通常のA100と同じGA100 Ampereダイを共有しています。ただし、GA100シリコンで最大128個のSM(ストリーミングマルチプロセッサ)が有効になっているのは、A100 7936SPでは124個です。最大構成ではありませんが、A100 7936SPは標準のA100よりもCUDAコア数が15%多く、大幅なパフォーマンス向上を実現しています。
Tensorコア数も同様に、SMの数に比例して増加します。つまり、有効なSMの数が多いということは、A100 7936SPがより多くのTensorコアを搭載していることを意味します。スペックだけに基づくと、SM、CUDA、Tensorコア数が15%増加することで、AIパフォーマンスも同様に15%向上する可能性があります。
NvidiaはA100を40GBと80GB構成で提供しています。A100 7936SPも同様に2つのバリエーションで提供されます。A100 7936SP 40GBモデルは、A100 80GBモデルと比較してベースクロックが59%向上しながら、ブーストクロックは1,410MHzを維持しています。一方、A100 7936SP 96GBモデルは、通常のA100と比較してベースクロックが18%高速化しており、6つ目のHBM2スタックにより合計96GBのメモリを搭載できます。残念ながら、中国の販売業者はGPU-Zのスクリーンショットからブーストクロック速度を隠しています。
Nvidia A100 7936SP 仕様
スワイプして水平にスクロールします
グラフィックカード | A100 7936SP 96GB | A100 80GB | A100 7936SP 40GB | A100 40GB |
---|---|---|---|---|
建築 | GA100 | GA100 | GA100 | GA100 |
プロセス技術 | TSMC 7N | TSMC 7N | TSMC 7N | TSMC 7N |
トランジスタ(10億個) | 54.2 | 54.2 | 54.2 | 54.2 |
ダイサイズ(mm^2) | 826 | 826 | 826 | 54.2 |
SMS | 124 | 108 | 124 | 108 |
CUDAコア | 7,936 | 6,912 | 7,936 | 6,912 |
Tensor / AIコア | 496 | 432 | 496 | 432 |
レイトレーシングコア | 該当なし | 該当なし | 該当なし | 該当なし |
ベースクロック(MHz) | 1,260 | 1,065 | 1,215 | 765 |
ブーストクロック(MHz) | ? | 1,410 | 1,410 | 1,410 |
テラフロップス(FP16) | >320 | 312 | 358 | 312 |
VRAM速度(Gbps) | 2.8 | 3 | 2.4 | 2.4 |
VRAM(GB) | 96 | 80 | 40 | 40 |
VRAMバス幅(ビット) | 6,144 | 5,120 | 5,120 | 5120 |
L2(MB) | ? | 80 | ? | 40 |
レンダリング出力単位 | 192 | 160 | 160 | 160 |
テクスチャマッピングユニット | 496 | 432 | 432 | 432 |
帯域幅(TB/秒) | 2.16 | 1.94 | 1.56 | 1.56 |
TDP(ワット) | ? | 300 | ? | 250 |
A100 7936SP 40GBメモリサブシステムは、A100 40GBと同一です。40GBのHBM2メモリは、5つのHBM2スタックを使用して5120ビットメモリインターフェースで2.4Gbpsで動作します。この設計により、最大1.56TB/sのメモリ帯域幅が実現します。しかし、ここで注目すべきはA100 7936SP 96GBモデルです。このグラフィックスカードは、6つ目のHBM2スタックに対応しているため、NVIDIAが提供するものよりも20%多くのHBM2メモリを搭載しています。非常に大規模な言語モデルのトレーニングには大量のメモリが必要になるため、この追加容量はAI処理において非常に役立つでしょう。
A100 7936SP 96GBは、A100 80GBと比較してメモリサブシステムが刷新されているようです。HBM2メモリの速度は3Gbpsではなく2.8Gbpsですが、その差を埋めるために、より広い6144ビットのメモリバスを採用しています。その結果、A100 7936SP 96GBはA100 80GBよりも約11%広いメモリ帯域幅を備えています。
画像
1
の
2

A100 40GBと80GBのTDPはそれぞれ250Wと300Wです。より高速な仕様を考えると、A100 7936SPのTDPはより高くなる可能性があります。ただし、共有されているGPU-Zのスクリーンショットからは値はわかりません。エンジニアリングPCBには、標準のA100の1つの8ピンPCIe電源コネクタではなく、3つの8ピンPCIe電源コネクタが搭載されています。エンジニアリングプロトタイプであるため、A100 7936SPは3つの電源コネクタすべてを使用するわけではありませんが、追加のCUDAコアとHBM2メモリを搭載しているため、標準のA100よりも多少多くの電力を消費するはずです。
多くの中国人セラーがeBayでA100 7936SPを販売しています。96GBモデルの価格は18,000ドルから19,800ドルです。これらのアクセラレータがNVIDIAの研究所から流出したエンジニアリングサンプルなのか、それともチップメーカーが特定の顧客向けに開発したカスタマイズモデルなのかは不明です。いずれにせよ、A100が最新の米国輸出制裁の対象となる可能性がある間は、購入は違法です。ただし、これは既に中国国内にあるカードには影響しません。
もちろん、保証や公式ドライバサポートはありません。A100 7936SPはA100と同等かそれ以下の価格でA100よりも優れたパフォーマンスを提供しますが、AIニーズすべてに対応するには市販製品を購入するか、GPUをレンタルする方が安全です。しかし、A100 GPUの輸入ができなくなった中国市場にとって、メモリと演算能力の増強は検討する価値があるようです。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
Zhiye Liuは、Tom's Hardwareのニュース編集者、メモリレビュアー、そしてSSDテスターです。ハードウェア全般を愛していますが、特にCPU、GPU、そしてRAMには強いこだわりを持っています。