
AMDはついに、AIおよびHPC向けアクセラレータ「Instinct MI300X」の公式MLPerf結果を初公開しました。MI300Xプロセッサは、生成AI向けLlama 2 70Bモデルに搭載されているNVIDIAの前世代H100 GPUと同等の性能を発揮しているようですが、刷新されたH200バージョンには大きく及ばない結果となっています。ましてや、近日中に発表されるNVIDIA B200も、同じく昨日MLPerfの初結果を公表しました。
AMDがLlama 2 70BモデルのMLPerf 4.1生成AIベンチマークにおけるMI300Xのパフォーマンス数値のみを公開したことは注目に値します。AMDが公開したデータによると、MI300Xプロセッサ8基搭載システムは、Nvidia H100 SXM3プロセッサ8基搭載システム(オフライン時24,323トークン/秒)よりもわずかに遅い(オフライン時23,512トークン/秒)だけで、NvidiaのソフトウェアスタックがLlama 2 70Bのような一般的な大規模言語モデル向けに最適化されていることを考えると、これは「競争力がある」と言えるでしょう。AMD MI300Xシステムは、ほぼ現実世界のサーバーベンチマークにおいても、Nvidia H100マシンよりもわずかに高速で、21,028トークン/秒対20,605トークン/秒でした。
Nvidia の B200 の結果と同様に、これらの結果を完全に分析するには、もう少し深く掘り下げる必要があります。
スワイプして水平にスクロールします
行0 - セル0 | GPUの数 | オフライン | サーバ | GPUあたりオフライン | GPUサーバーあたり |
AMD MI300X 192GB HBM3 | 1 | 3,062 | 2,520 | - | - |
AMD MI300X 192GB HBM3 | 8 | 23,514 | 21,028 | 2,939 | 2,629 |
Nvidia H100 80GB HBM3 | 4 | 10,699 | 9,522 | 2,675 | 2,381 |
Nvidia H100 80GB HBM3 | 8 | 24,323 | 20,605 | 3,040 | 2,576 |
Nvidia H200 141GB HBM3E | 8 | 32,124 | 29,739 | 4,016 | 3,717 |
Nvidia B200 180GB HBM3E | 1 | 11,264 | 10,755 | - | - |
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。