
日本の小売業者が、人工知能(AI)および高性能コンピューティング(HPC)アプリケーション向けのNVIDIAの次世代コンピューティングアクセラレータ「Hopper H100 80GB」の予約注文を開始しました。このカードは今後数ヶ月以内に発売される予定で、NVIDIAの現行世代のコンピューティングGPU「Ampere A100 80GB」よりもかなり高価になる見込みです。
HPCおよびワークステーションシステム専門の小売業者であるGDep Advanceは、サーバー向けパッシブ冷却機能を搭載したNVIDIAのH100 80GB AIおよびHPC PCI 5.0コンピューティングカードの予約受付を開始しました。同社(エルミタージュ秋葉原経由)によると、このボードの価格は4,745,950円(36,405ドル)で、これには本体価格4,313,000円(32,955ドル)、消費税431,300円(3,308ドル)、配送料1,650円(13ドル)が含まれています。ボードは今年後半に出荷予定ですが、正確な時期は不明です。
NvidiaのH100 PCIe 5.0コンピューティングアクセラレータは、7296/14592個のFP64/FP32コア(詳細は下記参照)を備えた同社最新のGH100コンピューティングGPUを搭載し、最大24 FP64 TFLOPS、48 FP32 TFLOPS、800 FP16 TFLOPS、1.6 INT8 TOPSの性能を実現します。このボードは、約2TB/秒の帯域幅を提供する5120ビットインターフェースを備えた80GBのHBM2Eメモリを搭載し、最大8基のH100 GPUを搭載したシステムを構築できるNVLinkコネクタ(最大600GB/秒)を備えています。このカードの熱設計電力(TDP)は350Wです。
AmpereアーキテクチャをベースにしたA100の前身モデルと比べて少なくとも2倍高速なNvidiaのHopperアーキテクチャ搭載H100は、かなり高価になるようです。現在、Nvidia A100 80GBカードは13,224ドルで購入できますが、CDWではNvidia A100 40GBが27,113ドルにもなります。約1年前、A100 40GB PCIeカードの価格は、販売店によって異なりますが、15,849ドルから27,113ドルでした。一方、今年後半に発売予定のH100 80GBボードは、約33,000ドル(少なくとも日本では)になる予定です。
NVIDIAがH100 PCIeカードの定価をA100ボードより値上げする予定があるかどうかは不明です。なぜなら、顧客はより低い消費電力で少なくとも2倍の性能を得られるからです。一方、NVIDIAは当初、GH100 GPUのSXM5バージョンを搭載したDGX H100およびDGX SuperPodシステムとSXM5ボードを、Atos、Boxx、Dell、HP、LenovoなどのHPCベンダーに出荷する予定であることは分かっています。
その後、同社はH100 PCIeカードをHPCベンダー向けに出荷開始し、その後、小規模なAI/HPCシステムインテグレーターや付加価値再販業者(VAR)向けにH100 PCIeボードを提供する予定です。これらの企業は、カード単体の販売よりも、H100を搭載した完全なシステムの出荷に強い関心を持っています。そのため、需要の高さ、供給の少なさ、そして小売業者の需要により、当初はH100 PCIeカードの価格が高騰する可能性があります。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。