
AMDは、サンフランシスコで開催されたイベント「Advancing AI 2024」において、第5世代EPYC「Turin」プロセッサを発表しました。エンタープライズ、AI、クラウドといったユースケース向けのZen 5搭載サーバーCPUファミリーの詳細が明らかになりました。レビューの準備として、私たちも独自のベンチマークテストをいくつか実行しましたが、その印象的な結果を以下にご紹介します。
AMD は、フルファットの Zen 5 コアを搭載した標準のスケールアップに最適化されたモデルと、高密度の Zen 5c コアを搭載したスケールアウトに最適化されたモデルを 1 つのスタックに統合し、EPYC 9005 Turin の名の下に、Intel の競合 Xeon プロセッサに対して印象的なパフォーマンスをいくつか実現していると主張しています。
AMDは、192コアを搭載したフラッグシップ製品「EPYC 9965」が、競合するIntelのフラッグシップ製品「Platinum 8952+」と比較して2.7倍高速であると主張しています。特に注目すべき高速化として、ビデオトランスコーディングは4倍高速、HPCアプリケーションでは3.9倍高速、仮想化環境ではコアあたり最大1.6倍の性能向上が挙げられます。AMDはまた、新たに高周波数5GHzの「EPYC 9575F」も発表しました。AI GPUワークロードの高速化に使用した場合、Zen 4 EPYCモデルと比較して最大28%高速になると主張しています。
製品スタックと機能を詳しく説明し、ベンチマークに進みます。
仕様と価格
第5世代EPYC「Turin」9005シリーズの仕様と価格
画像
1
の
3

注目すべきは、AMDが今世代ではスタック型L3キャッシュを搭載したXシリーズモデルを投入せず、Milan-Xラインナップのみに頼っていることです。AMDは、Xシリーズは2世代ごとにアップグレードされる可能性があると述べていますが、現時点では検討段階です。
AMDの新シリーズは、8コアから192コア/384スレッドのEPYC 9965(14,813ドル)まで、幅広いラインナップを揃えています。TSMCの3nmプロセス技術を活用し、高密度のZen 5cコアを搭載することで究極のコンピューティング密度を実現する500Wの巨大プロセッサです。AMDは、高密度アプリケーション向けに拡張性に優れた、96、128、144、160コアのZen 5c搭載モデルも5種類提供しています。
標準モデルも用意されており、4nmノードで製造されたZen 5コアは、12,984ドルのEPYC 9755で最大128コア、256スレッドを実現しています。このスタックには、わずか8コアから始まる合計22のモデルがあります。これは、顧客の要望に応えてAMDが新たに開発した、より小型のコア数を誇るモデルです。AMDはまた、製品スタック全体に4つのシングルソケット「P」シリーズモデルを散りばめています。
AMDの標準Zen 5ラインナップに、最高5.0GHzの高周波数SKUが新たに加わりました。これは、AMDのデータセンターCPUラインナップの新たな最高水準であり、GPUオーケストレーションワークロードのパフォーマンスを最大限に引き出します。AMDは、パフォーマンスとコア数が異なる5種類のFシリーズモデルを提供しています。
第5世代EPYC「Turin」9005シリーズの特徴
画像
1
の
7

標準の Zen 5 モデルは、最大 16 個の 4nm CCD (コア コンピュート ダイ、チップレットとも呼ばれる) を採用しています。これらは大きな中央 I/O ダイとペアになっており、各 CCD は 8 個の CPU コアを提供します。Zen 5c モデルは、最大 12 個の 3nm CCD を採用しており、チップレットごとに 16 個の Zen 5c コアが同じ I/O ダイとペアになっています。
AMDは、新しいZen 5アーキテクチャによって生まれたRPYC 9005シリーズのIPCが17%向上したと主張しています。Zen 5では、AVX-512の512bデータパスをフルサポートするという注目すべき機能も追加されていますが、ユーザーはチップを「ダブルポンプ」AVX-512モードで動作させるオプションも用意されています。このモードでは、512b命令を2つの256b命令セットとして発行するため、消費電力が低減され、一部のワークロードにおける効率が向上します。
フラッグシップの192コアモデルを除き、すべてのTurinプロセッサは、SP5ソケットを搭載した既存のサーバープラットフォームに搭載可能です。192コアモデルもSP5ソケットに対応していますが、特別な電源要件が必要となるため、上位モデルには新しいマザーボードが必要です。これはSP5対応のEPYCチップの第2世代となり、前世代のGenoaもこのプラットフォームを採用しています。
これは、市場投入までの時間を短縮し、顧客とOEMパートナーのアップグレードの負担を軽減するというAMDの戦略と合致しています。参考までに、最初の3世代(Naples、Milan、Rome)もすべて共通プラットフォームを採用していました。
画像
1
の
7

TDP は 155W から 500W までの範囲で、最高出力のモデルでは、標準的な AIO クーラーに似た新しい高密度ウォータークーラーが採用されることが多く、ラジエーターはシャーシ内に統合されています。これは、上記のサンプル Turin サーバー (レビュー進行中) に描かれているとおりです。
Turinファミリーは、12チャネルのDDR5メモリサポートのみで提供され、サーバーあたり最大12TB(ソケットあたり6TB)のメモリ容量を備えています。AMDは当初、Turinの仕様をDDR5-6000としていましたが、現在では認定プラットフォーム向けにDDR5-6400に拡張されています。AMDのプラットフォームは、チャネルあたり1枚のDIMM(DPC)のみをサポートしています。
各CPUは、シングルソケットサーバーでは128本のPCIe 5.0レーン、デュアルソケット構成では160本のPCIeレーンをホストします。AMDはCXL 2.0もサポートしています(注意事項あり)。
TurinとIntel Granite Rapidsのベンチマーク
EPYC TurinとIntel Granite Rapidsのベンチマーク比較
イベント会場への移動時間が短く、全てのテストを終える時間がありませんでした。192コアモデルのテストはまだ終わっていません。しかし、レビューの前に、独自のテスト結果を多数用意しており、近日中に完全な結果を掲載する予定です。また、128コアのTurin EPYC 9755と64コアのEPYC 9575Fの完全なベンチマークもご用意しています。
ベンチマーク結果は直前の追加のため分析なしで掲載していますが、今後の発表をお楽しみに。192コアのテストが完了し次第、欠落していたエントリもここに追加します。主要分野の結果のプレビューはこちらですが、AMDのベンチマーク結果の分析も下記に掲載しています。
AIベンチマーク
AIベンチマーク
画像
1
の
8

これらのAIベンチマークには、両ラインナップのパフォーマンスを向上させる可能性のある専用の最適化が施されていないことに注意してください。また、これらの多くはAMX(Advanced Matrix eXtensions)に最適化されていないため、一部のテストではIntelに有利になる可能性があります。
爆発的に拡大するAIの世界は絶えず変化しており、平均的なデータセンターアプリケーションにとって意味のある形でパフォーマンスを評価することは非常に困難です。さらに、バッチサイズやその他のテスト対象パラメータは、実際の導入環境では変化します。
したがって、これらのベンチマークはあくまでも目安としてご利用ください。これらのテストは、実際の導入で期待されるレベルまで最適化されているわけではありません。一方で、一部のデータセンターや企業では、市販のAIモデルを少し調整して採用しているケースもあります。そのため、一般的なパフォーマンスの指標は適用可能ですが、採用されるモデル、ひいては競合製品の相対的な位置付けは、それに応じて変化します。
HPCとスケーラビリティのベンチマーク
HPCおよび多数のスケーラビリティベンチマーク
画像
1
の
23

コンパイルベンチマーク
コンパイルベンチマーク
画像
1
の
5

レンダリングベンチマーク
レンダリングベンチマーク
画像
1
の
17

エンコードベンチマーク
エンコードベンチマーク
画像
1
の
5

AMDの第5世代EPYC「Turin」9005シリーズの汎用ベンチマーク
画像
1
の
6

AMDはパフォーマンスに関する主張を裏付けるために一連のベンチマークを公開しましたが、ベンダーが提供する他のベンチマークと同様に、サードパーティによる検証を確認する必要があります。上記の通り、現在EPYC Turinサーバーをテスト中です。ベンチマークと分析の全容については、今後の発表をお楽しみに。
AMDのテストノートは記事末尾のアルバムに掲載しています。AMDはすべての第5世代Xeonとの比較を行いましたが、Intelは最近Xeon 6「Granite Rapids」シリーズの出荷を開始しました。AMDによると、テスト用にこれらのシステムはまだ確保できていないとのことなので、これらのベンチマークはIntelの現行の主力製品と比較したものではないことにご注意ください。
AMDは、EPYC 9965が業界標準のSPEC CPU 2017整数スループットベンチマークで世界新記録を樹立したと発表しました。これは、Intelの第5世代フラッグシッププロセッサと比較して2.7倍の性能差を誇ります。また、AMDはコアあたりの性能でも1.4倍の性能差を誇っており、これはCPU本体よりも高額になりがちな高価なソフトウェアライセンスを効果的に活用するための鍵となります。これはAMD Turinの核となる価値提案です。実際、AMDは同等のライセンスコストで60%も性能向上を実現していると主張しています。
当然のことながら、AMDはビデオトランスコーディング、ビジネスアプリ、データベース、レンダリングといった一般的なコンピューティングワークロードにおけるベンチマークも多数公開しており、第5世代Xeonと比較してそれぞれ4倍、2.3倍、3.9倍、3倍の性能向上が見られました。AMDはまた、上記のアルバムでご覧いただけるよう、HPCベンチマークも多数公開しています。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
AMDの第5世代EPYC「Turin」9005シリーズのAIベンチマーク
画像
1
の
8

AMD は、3 つの異なるバケットに分類される AI ワークロードのあらゆる範囲に対して Turin が最適な選択肢であるという主張を裏付けるために、多数のベンチマークを公開しました。
CPUを完全に飽和させるAI推論ワークロードにおいて、IntelはAMX命令を活用するCPU推論ワークロードにおいて明確な優位性を維持してきました。しかし、AMDは、192コアのEPYC 9965を搭載したTurinが、様々なAIワークロードにおいて最大3.0倍から3.8倍のAI推論速度を実現し、その優位性を打ち破ると主張しています。
多くのAI実装は、GPU AIワークロードのオーケストレーションをCPUに依存しているため、GPUは高負荷の推論とトレーニング処理を担うため、CPUの負荷が増大します。AMDは、新しい高周波数5GHz EPYC 9575Fにより、1.08倍から1.2倍のアドバンテージが得られると主張しています。AMDは、HGXおよびMGXシステムとの組み合わせに関するNVIDIAの推奨事項と、自社のMI300Xシステムに最適な組み合わせのリストを公開しました。
AMDはまた、IntelのAMXの優位性は100%飽和状態のAIスループットワークロードにのみ当てはまると主張していますが、AIワークロードのほとんどは、汎用コンピューティングワークロードもアクティブな混合環境で発生するとAMDは考えています。AMDは、CPU上で同時に実行される汎用コンピューティングとAIコンピューティングの混合ワークロードの範囲において優位性があり、Intelの第5世代Zeonと比較して1ドルあたりのパフォーマンスが2倍であると主張しています。
結論
結論と考察
画像
1
の
7

AMDは、多くの顧客が既存サーバーをより長期間維持しており、中には5年、あるいは6年もサーバーを保有している顧客もいると指摘しています。しかし、同社は、旧型のXeon Platinum 8280サーバー1,000台をTurinサーバー131台に統合することで、サーバー台数を最大87%削減しながら、消費電力を最大68%削減できると指摘しています。
AMDは、2017年に第1世代EPYC Naplesチップを発売した当初、データセンター市場における収益シェアが約2%でしたが、第4世代Genoa(前四半期だけで28億ドル)の好調により、今年上半期の収益シェアは34%へと大幅に拡大しました。この成功の多くは、パフォーマンスと価格の優位性だけでなく、AMDが第1世代の発売以来、一貫して掲げてきた、予測可能な納期厳守の実現によるものです。
AMDによると、この数年間で初代Milanと比較してコア数は6倍、パフォーマンスは11倍向上しており、Turinも当然ながらその向上に貢献しているという。また、世代を追うごとにIPCが2桁(約14%)向上していることもアピールしている。
これらの世代ごとの改良により、Turinは非常に印象的なラインナップとなりました。上記の通り、Granite RidgeとTurinの両方のシステムを社内に保有しており、近日中にレビューで独自のテスト結果の詳細な分析を公開する予定です。以下はAMDのスライドに記載されたテストノートです。
画像
1
の
20

ポール・アルコーンはTom's Hardware USの編集長です。CPU、ストレージ、エンタープライズハードウェアに関するニュースやレビューも執筆しています。