21
インテル「エメラルドラピッズ」第5世代Xeon Platinum 8592+レビュー:64コア、3倍のL3キャッシュ、高速メモリが驚異的なAIパフォーマンスを実現

第5世代Emerald Rapids Xeon Platinum 8592+は、競合するAMD EPYC Genoaプロセッサーに対するIntelの競争力を大幅に向上させます。より洗練されたSoCアーキテクチャ、3倍のキャッシュ容量、そしてより高速なDDR5-5600メモリの追加により、特にAIワークロードにおいて、非常に競争力の高いチップが実現しました。

長所

  • +

    主流モデルにさらに8つのコアを追加

  • +

    最上位モデルではL3キャッシュが3倍に

  • +

    AIワークロードにおけるパフォーマンス

  • +

    スレッド数の多いワークロードと少ないワークロードの両方でのパフォーマンス

  • +

    AMX、AVX-512、VNNI、BFloat 16 のサポート

  • +

    CXLタイプ3メモリデバイスのサポート

短所

  • -

    汎用チップのコア数でAMDのピーク時64コアを抜く

  • -

    32コア以下のチップには、同じ量のL3キ​​ャッシュが搭載されている。

Tom's Hardwareを信頼できる理由 お客様に最適な製品とサービスをお選びいただけるよう、専門のレビュアーが何時間もかけて製品とサービスをテスト・比較しています。テスト方法について詳しくはこちらをご覧ください。

Intelは競争力を維持している。同社のXeon製品群の刷新の一環として、11,600ドルのフラッグシップモデルとなる64コアのEmerald Rapids第5世代Xeon Platinum 8592+が発表された。このプロセッサは、Intelの市場シェアを奪い続けているAMDのEPYC Genoaプロセッサシリーズに対抗することになる。次ページに掲載するベンチマークテストでは、Emerald Rapidsが驚くほど優れたパフォーマンス向上を実現し、AMDのGenoaに対するIntelの競争力を飛躍的に向上させていることが示された。さらに重要なのは、Intelの新チップが予定通りに登場したことであり、これは同社の業績回復が順調に進んでいることを裏付ける、待望の証拠となる。

Emerald Rapidsでは、Intelは同社の前世代チップに比べて4コアを追加し、デュアルソケットサーバー1台あたり最大128コア、256スレッドを実現しました。また、高性能モデルではL3キャッシュを3倍に増強し、メモリはより高速なDDR5-5600を採用しました。ダイアーキテクチャの大幅な再設計を含むその他の重点的な機能強化と相まって、これらの機能強化により、AI推論で42%、一般的なコンピューティングワークロードで21%、ワット当たり性能で36%の向上を実現したとIntelは主張しています。

前世代のSapphire Rapidsプロセッサと同様に、Emerald Rapidsは「Intel 7」プロセス(ノードのより洗練されたバージョンではあるものの)と、わずかに強化されたRaptor Coveマイクロアーキテクチャを採用しています。しかし、新しいEmerald Rapidsサーバーチップには、リフレッシュ世代に期待されるものをはるかに超える、数多くの新たなイノベーションと設計変更が盛り込まれています。Intelは、最上位のSapphire Rapidsチップの複雑な4チップレット設計から、合計610億個のトランジスタを搭載したよりシンプルな2ダイ設計に移行し、新しいダイはより一貫したレイテンシプロファイルを提供しています。再設計にもかかわらず、Emerald Rapidsは既存のSapphire Rapids「Eagle Stream」プラットフォームとの下位互換性を維持しており、検証時間を短縮し、新しいプロセッサの迅速な市場導入を可能にしています。

Emerald Rapids は、総コア数では依然として後れを取っています。AMD の Genoa は EPYC 9654 で最大 96 コアであり、32 コアのアドバンテージがあります。そのため、Emerald Rapids は、最も密度の高い一般的なコンピューティング ワークロードの一部では Genoa に匹敵しません。チップに十分なメモリ スループットがあれば、ほとんどの並列ワークロードで AMD の 50% のコア数のアドバンテージを打ち破ることは困難です。ただし、Intel のチップは依然として市場の大部分の要件を満たしており (最上位のチップは、ミッドレンジのチップよりも常に市場のはるかに小さい部分を占めています)、組み込みアクセラレータのスイートと AI ワークロードでのパフォーマンスに依存して、パフォーマンスと電力効率の優れた組み合わせにより、AMD の競合する 64 コア チップに対抗しています。

Emerald RapidsがデータセンターにおけるIntelの競争力を大幅に向上させることは間違いありません。しかし、AMDは昨年末にGenoaを発売し、Zen 5を搭載したTurinは2024年に登場予定です。これらのチップは、2024年前半に発売が予定されているIntelのGranite Rapidsプロセッサと対峙することになります。AMDは最大128コアを搭載し、密度を最適化したBergamoを市場に投入しており、Intelも来年初めに最大288コアのSierra Forestラインナップで対抗する構えで、新たな戦場が形成されつつあります。

現在注目されている汎用プロセッサの目標が間もなく変わることは明らかです。Intel の Emerald Rapids が AMD の現在のラインナップとどのように比較されるかを以下に示します。 

Intel Emerald Rapids 第5世代 Xeon の仕様と価格

画像

1

2

インテル エメラルド ラピッズ 第 5 世代 Xeon
(画像提供:Intel)

Intelの第5世代Xeonラインナップは、クラウド、ネットワーク、ストレージ、長寿命用途向け、シングルソケットモデル、そして液冷システム向けに特別に設計されたプロセッサを含む、6つの主要なスイムレーン(2枚目のスライド)に分かれた32の新モデルで構成されています。スタックは、プラチナ、ゴールド、シルバー、ブロンズのサブティアにも分割されています。注目すべきは、IntelがXeonの従来の主力であった8ソケットまで拡張可能なチップをリストしていないことです。現在、このシリーズは2ソケットのサポートで最大となっています。Intelはまた、DDR5-4400からDDR5-5600までの8チャネル速度で、さまざまなレベルのメモリサポートを提供しています。対照的に、AMDのGenoaスタックはすべて、DDR5-4800メモリを12チャネルサポートしています。

Intelはあらゆるワークロードに対応するSKUを提供しているように見えますが、Emerald Rapidsの32チップ構成は、実際にはIntelのXeonポートフォリオの縮小版です。前世代のラインナップには合計52種類のオプションがありました。対照的に、AMDのEPYC Genoa 9004シリーズファミリーは、コアパフォーマンス、コア密度、バランス、最適化の3つのカテゴリーに分かれた18モデルを展開しており、製品構成ははるかにシンプルです。

Emerald Rapidsは、Intelが一括購入または従量課金モデルで利用可能なアクセラレーション技術への取り組みを継続するものです。チップ上のこれらの専用アクセラレータ領域は、圧縮、暗号化、データ移動、データ分析(QAT、DSA、DLB、IAA)など、通常は個別のアクセラレータが必要となる様々な処理のパフォーマンスを大幅に向上させるように設計されています。各チップでは、有効化できるアクセラレータ「デバイス」の数は可変ですが、「+」モデルではデフォルトで各タイプのアクセラレータが少なくとも1つ有効化されています。

Emerald Rapidsの標準モデルのTDPは125Wから350Wですが、水冷に最適化されたチップは最大385Wに達します。一方、AMDの標準チップは最大360Wですが、TDPを400Wまで設定できるものもあります。

スワイプして水平にスクロールします

モデル価格コア/スレッドベース/ブースト(GHz)TDPL3キャッシュ(MB)cTDP(W)
EPYC ジェノバ 965411,805ドル96 / 1922.4 / 3.7360W384320~400
インテル Xeon 8592+ (EMR)11,600ドル64 / 1281.9 / 3.9350W320-
インテル Xeon 8490H (SPR)1万7000ドル60 / 1201.9 / 3.5350W112.5-
インテル Xeon 8480+ (SPR)10,710ドル56 / 1122.0 / 3.8350W105-
EPYC ジェノバ 95549,087ドル64 / 1283.1 / 3.75360W256320~400
インテル Xeon 8562Y+ (EMR)5,945ドル32 / 642.8 / 4.1300W60-
インテル Xeon 8462Y+ (SPR)3,583ドル32 / 642.8 / 4.1300W60-
EPYC ジェノバ 93543,420ドル32 / 643.25 / 3.8280W256240~300
インテル Xeon 4516Y+ (EMR)1,295ドル24 / 482.2 / 3.7185W45-
インテル Xeon 6442Y (SPR)2,878ドル24 / 482.6 / 3.3225W609行目 - セル6
EPYC ジェノバ 92542,299ドル24 / 482.9 / 4.15200W128200~240
EPYC ジェノバ 9374F4,850ドル32 / 643.85 / 4.3320W256320~400
EPYC ジェノバ 9274F3,060ドル24 / 484.05 / 4.3320W256320~400

Intel の組み込みアクセラレータの有無により、特に顧客が追加のアクセラレーション機能を購入する可能性を考慮すると、AMD の Genoa との価格の直接比較は困難になります。

Intel Xeon Platinum 8592+は64コア、128スレッドを搭載しており、Sapphire Rapidsの最高60コア(高価で特化型)である8490Hよりも4コア多い。しかし、8592+はIntelの前世代汎用フラッグシップである8480+よりも8コア多い。

8592+は、末尾に「+」が付いていることからわかるように、内蔵アクセラレータがそれぞれ1つずつ有効化されています。これは、追加料金をお支払いいただくことで、各タイプのアクセラレータを4つまでアップグレード可能です(通常はOEMを通じて提供されるため、価格は変動します)。

8592+のコアはベースクロック2.0GHzですが、全コアで最大3.0GHz、シングルコアで最大3.8GHzまでブースト可能です。このチップは320MBのL3キャッシュを搭載しており、これは前世代の同等製品の3倍以上です。IntelがL3容量を増強したことは、多くのワークロードにメリットをもたらしますが、注意点もあります。後述しますが、Emerald Rapidsプロセッサは3種類のダイ構成から選択でき、最上位のダイ(40コア以上)のみが3倍のキャッシュ容量を備えています。一方、32コア以下のモデルでは、前世代と同量のキャッシュを搭載したダイが使用されています。

Intelのプロセッサは、1DPC(チャネルあたり1枚のDIMM)モードで最大DDR5-5600、2DCモードで最大DDR5-4800をサポートするようになりました。これは、前世代のDDR5-4800から向上しています。また、IntelはUPIリンクを20GT/sに調整し、従来の16GT/sからわずかに向上しました。

画像

1

7

インテル Xeon エメラルドラピッズ
(画像提供:Intel)

すべての Emerald Rapids チップは以下をサポートしています。

  • LGA4677ソケット/Eagle Streamプラットフォーム
  • ハイパースレッディング
  • DDR5メモリ8チャネル:最上位モデルは最大DDR5-5600(1DPC)およびDDR5-4800(2DPC)で動作しますが、速度はモデルによって異なります。
  • 80 レーンの PCIe 5.0 (EPYC Genoa には 128 レーンの PCIe 5.0 があります)
  • ソケットあたり最大 6TB のメモリ (Genoa と同じ)
  • CXL タイプ 3 メモリのサポート (Genoa もタイプ 3 をサポートしています)
  • AMX、AVX-512、VNNI、Bfloat 16(Genoa は AMX をサポートしていません)
  • UPI速度が16GT/sから20GT/sに向上

Intel Emerald Rapids 第5世代 Xeon アーキテクチャ

画像

1

7

インテル Xeon エメラルドラピッズ
(画像提供:Intel)

Intel は、前世代の Sapphire Rapids で 2 種類のダイを採用しました。1 つは、最大 60 コアに拡張される 4 タイル チップの標準構成およびミラー構成で使用される XCC (eXtreme Core Count) ダイ デザインで、もう 1 つは 32 コア以下のチップ用のモノリシック MCC (Medium Core Count) ダイです。

Intel は、Emerald Rapids で 3 つの異なるダイ設計に移行しました。2 タイル設計 (最大 64 コア) にのみ使用される XCC ダイ、20 個以上から 32 個のコアのモデル用のモノリシック MCC ダイ、および 20 個以下のコアを持つモデル用の新しいモノリシック EE LCC (Low Core Count) ダイです。

各XCCダイには305億個のトランジスタが搭載されており、デュアルXCCモデルでは合計610億個のトランジスタが搭載されます。デュアルタイル設計に戻ったにもかかわらず、Emerald RapidsはSapphire Rapidsプロセッサとほぼ同じダイ面積を占めています。各XCCダイには33個のコアが搭載されていますが、製造中の欠陥の影響を軽減するため、1つのコアは無効化されています。IntelはXCCタイルとMCCタイルのダイ面積はほぼ同じであると述べていますが、正確な測定値はまだ公表されていません。

Intel の以前のクアッド XCC タイルの Sapphire Rapids 設計では、10 個の異なる EMIB 相互接続を採用して、それらを準モノリシック デバイスに統合していましたが、これによりレイテンシと変動性の問題が発生し、多くの種類のワークロードでパフォーマンスが低下しました。設計が複雑になることは言うまでもありません。

対照的に、Emerald Rapidsの新しいデュアルXXCタイルは、2つのダイ間に3つのEMIB接続のみを使用するため、レイテンシと変動性に関する懸念を軽減しながら、パフォーマンスを向上させ、設計の複雑さを軽減します。EMIB接続数の削減は複数の点で役立ちます。ネットワーク・オン・チップ(NoC)に割り当てられるダイ面積の削減とデータトラフィックの削減により、チップ全体の消費電力が5~7%削減され、Intelはこれをチップの消費電力の大きい領域に振り向けることで、より高いパフォーマンスを実現しました。

インテルはこれまでと同様に、ダイを論理的に分割して複数の領域にワークロードを配置するオプション(サブNUMAクラスター - SNC)を提供しており、これにより別のダイへのアクセスに伴うレイテンシのペナルティを回避しています。ただし、クアッドタイルSapphire Rapidsでは最大4つのクラスターを提供していましたが、インテルはレイテンシに敏感なアプリケーション向けにEmerald Rapidsを最適化するため、ダイごとに1つ、合計2つのクラスターのみをサポートしています。チップはデフォルトで1つの大きなクラスターとして動作します。インテルによると、これはほとんどのワークロードにとって最適です。上記のスライドでは、さまざまなSNC構成によるレイテンシへの影響を確認できます。

IntelのMCCおよびEE LCCダイはカスタム設計です。Intelはこれらのダイを別々に設計することで、EMIB接続などの未使用機能の一部を省略し、ダイ面積を節約し、コストと複雑さを削減しました。上記のアルバムの2枚目のスライドでは、メモリ、PCIe、UPIコントローラーなどのダイの機能要素に関するEmerald Rapidsの新しい配置について概説しています。

インテルは、Emerald Rapidsにおいて消費電力の削減を主要な焦点領域と位置付けました。データセンター向けプロセッサの多くは、通常使用時に30~40%の使用率で動作します(クラウドでは通常70%)。そのため、インテルはコアとSoCインターコネクトを最適化し、使用率を低く抑えるなど、設計の様々な側面を改善しました。インテル7ノードの最新リビジョンによって実現されたさらなる効率化と相まって、システムの低負荷時に消費電力を最大110W削減できたとインテルは主張しています。インテルは、この最適化電力モード(OPM)で動作している場合でも、チップは同等のパフォーマンスを発揮できると主張しています。

IntelはAVXおよびAMXライセンスクラス(こちらで説明)を拡張し、高負荷なベクトル化ワークロードにおいて最大2つのビンまで高いパフォーマンスを実現しました。これにより、パフォーマンスがさらに向上します。

Intelは、Sapphire RapidsにおいてもCXLメモリのサポートを拡充しました。Emerald Rapidsは現在、Type 3メモリ拡張デバイスもサポートしており、これにより新たなメモリ階層化とインターリーブのオプションが可能になります。外部接続メモリを追加することで容量と帯域幅の両方が拡張され、CXLインターコネクトに伴う通常のレイテンシはあるものの、より多くのメモリチャネルを利用できるのと同等のパフォーマンスを実現できます。

  • 詳細: ゲームに最適なCPU
  • 詳細:  CPUベンチマーク階層
  • 詳細: AMD vs Intel

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

ポール・アルコーンはTom's Hardware USの編集長です。CPU、ストレージ、エンタープライズハードウェアに関するニュースやレビューも執筆しています。