47
Nvidia、80GBのHBM2Eメモリを搭載したA100 GPUを準備

Nvidiaは最近、80GBのHBM2Eメモリを搭載したA100コンピューティングGPUの未発表バージョンを、標準のフルレングス・フルハイト(FLFH)カードフォームファクタで追加しました。つまり、この強力なGPUは「通常の」GPUと同様にPCIeスロットに挿入できるということです。A100やV100といったNvidiaのコンピューティングGPUは主にクラウドデータセンターのサーバーを対象としているため、Nvidiaは通常のPCIeバージョンよりもSXMバージョン(マザーボードにマウントするタイプ)を優先しています。しかし、これは同社が通常のPCIeカードフォームファクタで最先端のGPUを提供していないという意味ではありません。 

NVIDIAのA100-PCIeアクセラレータは、6912基のCUDAコアと80GBのHBM2E ECCメモリ(2TB/sの帯域幅)を搭載したGA100 GPUをベースにしており、少なくともコンピューティング能力(バージョン8.0)と仮想化/インスタンス機能(最大7インスタンス)に関しては、同社の80GBメモリ搭載A100-SXM4アクセラレータと同等の性能を備えています。もちろん、電力制限に関しては違いはあります。 

NvidiaはA100-PCIe 80GB HBM2Eコンピュートカードを公式に発表していませんが、VideoCardzが発見した公式文書に記載されているため、今後数ヶ月以内に発売されると予想されます。A100-PCIe 80GB HBM2Eコンピュートカードはまだ発売されていないため、実際の価格は不明です。CDWのパートナーは、40GBメモリ搭載のA100 PCIeカードを販売しており、販売店によって異なりますが、15,849ドルから27,113ドルで販売しています。そのため、80GBバージョンはそれ以上の価格になることはほぼ間違いありません。 

エヌビディア

(画像提供:Nvidia)

Nvidia独自のSXMコンピューティングGPUフォームファクタは、通常のPCIeカードに比べていくつかの利点があります。Nvidiaの最新のA100-SXM4モジュールは、最大400W(40GB版と80GB版の両方)の熱設計電力(TDP)をサポートしています。これは、モジュールに必要な電力を供給しやすく、冷却も容易なためです(例えば、最新のDGX Station A100に搭載されている冷媒冷却システムを使用)。一方、NvidiaのA100 PCIeカードの定格電力は最大250Wです。また、ラックサーバーだけでなく、ハイエンドワークステーションにも使用できます。

エヌビディア

(画像提供:Nvidia)

NVIDIAのクラウドデータセンター顧客は、カードよりもSXM4モジュールを好むようです。その結果、NVIDIAは昨年、A100-SXM4 40GB HBM2Eモジュール(帯域幅1.6TB/s)を初めてリリースし、数か月後にPCIeカード版をリリースしました。また、より高速なHBM2Eを備えたA100-SXM4 80GB HBM2Eモジュールも昨年11月に初めて発表しましたが、出荷を開始したのはごく最近のことです。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。