73
AMDがInstinct MI300X MLPerfベンチマークの初結果を発表 — Nvidia H100の性能とほぼ同等
AMD
(画像提供:AMD)

AMDはついに、AIおよびHPC向けアクセラレータ「Instinct MI300X」の公式MLPerf結果を初公開しました。MI300Xプロセッサは、生成AI向けLlama 2 70Bモデルに搭載されているNVIDIAの前世代H100 GPUと同等の性能を発揮しているようですが、刷新されたH200バージョンには大きく及ばない結果となっています。ましてや、近日中に発表されるNVIDIA B200も、同じく昨日MLPerfの初結果を公表しました。

AMDがLlama 2 70BモデルのMLPerf 4.1生成AIベンチマークにおけるMI300Xのパフォーマンス数値のみを公開したことは注目に値します。AMDが公開したデータによると、MI300Xプロセッサ8基搭載システムは、Nvidia H100 SXM3プロセッサ8基搭載システム(オフライン時24,323トークン/秒)よりもわずかに遅い(オフライン時23,512トークン/秒)だけで、NvidiaのソフトウェアスタックがLlama 2 70Bのような一般的な大規模言語モデル向けに最適化されていることを考えると、これは「競争力がある」と言えるでしょう。AMD MI300Xシステムは、ほぼ現実世界のサーバーベンチマークにおいても、Nvidia H100マシンよりもわずかに高速で、21,028トークン/秒対20,605トークン/秒でした。

Nvidia の B200 の結果と同様に、これらの結果を完全に分析するには、もう少し深く掘り下げる必要があります。

スワイプして水平にスクロールします

Llama 2 70B モデルにおける MLPerf 4.1 生成 AI ベンチマーク (トークン/秒)
行0 - セル0GPUの数オフラインサーバGPUあたりオフラインGPUサーバーあたり
AMD MI300X 192GB HBM313,0622,520--
AMD MI300X 192GB HBM3823,51421,0282,9392,629
Nvidia H100 80GB HBM3410,6999,5222,6752,381
Nvidia H100 80GB HBM3824,32320,6053,0402,576
Nvidia H200 141GB HBM3E832,12429,7394,0163,717
Nvidia B200 180GB HBM3E111,26410,755--

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。