Intel は、間近に迫ったスーパーコンピュータ 2018 トレードショーに先立ち、最大 48 個のコアと 12 チャネルの DDR4 メモリをサポートする新しい Xeon Cascade Lake-AP (Advanced Performance) プロセッサ ファミリなど、いくつかの発表を行いました。
Intelは、この新しいデータセンターチップのラインナップをマルチチップパッケージ(MCP)アーキテクチャで設計しました。これは、AMDのEPYCおよびThreadripperプロセッサと同様に、各プロセッサが複数のダイで構成されていることを意味します。これにより、Intelはついに、AMDが32コアのEPYCデータセンタープロセッサで保持しているコア数優位性に対抗できることになります。Intelはまた、エントリーレベルサーバー向けのXeon E-2100プロセッサの新しいラインナップも発表しました。
Intel Xeon Cascade Lake-AP (高度なパフォーマンス)
Cascade Lake-APファミリーは、Intelのデータセンタープロセッサ設計における根本的な転換点となりますが、Kentsfieldプロセッサでも同様の哲学的アプローチを採用しています。この新しいプロセッサファミリーは、チップあたり最大48コアを搭載し、12個のDDR4チャネルをサポートします。これにより、デュアルソケット(2P)サーバーでは最大96コアと24個のDDR4チャネルが利用可能となります。Intelは、これらのプロセッサがハイパースレッディング(チップあたり96スレッドに相当する)を搭載しているかどうかについては明らかにしていません。
Intelは、これらのプロセッサがHPC、AI、IAASワークロードにおいて最高のパフォーマンスを提供すると主張しています。また、これらのプロセッサはデータセンター向けプロセッサの中で最も多くのメモリチャネルを備え、最高のメモリ帯域幅へのアクセスを提供します。パフォーマンス密度、高いメモリ容量、そして驚異的なメモリスループットが目標であり、HPCユーザーにとって魅力的な製品となっています。
画像
1
の
3

簡単におさらいすると、Xeon Cascade Lake-SPシリーズがまもなく市場に登場します。Intelはこれらのモデルの詳細を発表していませんが、新しいプロセッサはIntel Xeonスケーラブル・プロセッサ(レビューはこちら)と同じ基本設計を採用していることは分かっています。つまり、Cascade Lakeは14nmプロセスで刷新された製品であり、コア数(最大28)、キャッシュ容量、I/O容量は前世代モデルと同等です。
新しいCascade Lake-SPモデルは今年中に市場投入され、Intelはより多くのコアとスレッドを備えたAMDの32コアEPYCプロセッサと競合することになります。AMDはまた、さらに多くのコアを搭載するとされる7nm EPYCプロセッサが来年初めに出荷開始予定であることを公言しています。
プロセスとパフォーマンスの両方のリーダーシップを AMD に譲り渡す可能性があれば、2019 年は長くなるでしょう。Intel は 2020 年に 10nm Ice Lake データ センター プロセッサを待ち望んでおり、そのためにエキゾチックな Cascade Lake-AP プロセッサがデビューすることになります。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
Intelは、新しいCascade Lake-APプロセッサが、以下のベンチマークでフラッグシップAMD EPYC 7601を上回ったと主張しています。Steam Triadの結果についてはAMDの公開テスト結果を使用しましたが、Linpackテストは自社ラボで実施しました。IntelはEPYC 7601でSMTを無効にし、スレッドの半分を無効にしました。このテスト構成の根拠についてIntelに問い合わせました(編集 - 記事の最後にIntelのコメントを掲載しました)。
· Linpack は、Intel Xeon Scalable 8180 プロセッサーと比較して最大 1.21 倍、AMD EPYC 7601 と比較して最大 3.4 倍
· Stream Triad は、Intel Scalable 8180 プロセッサーと比較して最大 1.83 倍、AMD EPYC 7601 と比較して最大 1.3 倍
Intelはまた、これらのプロセッサは発売時のXeon Scalable 8180と比べて最大17倍のAI/ディープラーニング推論パフォーマンスを提供すると主張している。
金型を接着する
-SPモデルのアーキテクチャ上の改良点はすべて、新しいCascade Lake-APモデルに反映されると予想されます。しかし、MCP(マルチチップパッケージ)設計の追加は、マルチチップアーキテクチャが今後の方向性の一部であるというIntelの最近の声明と一致する一方で、同社が過去にAMDのマルチチップEPYC設計について述べた発言を考慮すると、意外な結果です。
Intelは、EPYCの設計は「接着された4つのデスクトップダイ」で構成されていると主張したことで有名です。(この発言は「グルーロジック」という技術用語に言及しており、AMDの場合はInfinity Fabricです。)Intelは、AMDのマルチチップアプローチは(他の認識されている欠点の中でも)一貫性のないパフォーマンスをもたらすと非難しています。
画像
1
の
3

インテルの担当者は、自社とAMDのアプローチの違いについて尋ねられた際、マルチチップ設計に「反対」しているわけではないと回答しました。むしろ、自社のSoCで既に採用している方向性に価値を見出しています。また、インテルは自社の設計がAMDのInfinity Fabricベースのアーキテクチャ(上図)よりも優れていると主張しています。
Intelは、AMDのアプローチは不整合とパフォーマンスのばらつきを生み出す一方で、自社の設計では同様の偏りは発生しないと主張している。Intelは、パッケージ内のダイ間の通信にUPI(Ultra Path Interconnect)インターフェースを使用している。このプロトコルは非常にスケーラブルであり、Intelは既に最大8ソケットのサーバーにおけるプロセッサ間の通信にこのプロトコルを使用しているため、複雑なトポロジーへの適切な対応に加え、成熟したスケジューリングおよび省電力アルゴリズムを備えていることは明らかだ。
UPIは、上記のようにIntelのXeonスケーラブルXCCダイにも既に組み込まれています。各ダイには、他のソケットに搭載されたプロセッサ(およびそれらに接続されたメモリ)との通信用に3つのUPI接続があります。2ソケットサーバーの場合、既存の3つ目のUPIポートを同一プロセッサパッケージ内のダイ間の通信に使用し、残りの2つのUPI接続を他のプロセッサへの接続用に空けておくのが合理的です。
Intelは、各-APプロセッサ内の異なるリソースプールを、NUMAまたは何らかの高度なサブNUMAクラスタリング(SNC)によって分離する可能性が高いでしょう。これは、デュアルソケットサーバー内の4ソケット(またはそれ以上)のトポロジーと考えてください。
Intelによると、Cascade Lake-APモデルは、フラッグシップXeonプロセッサの8ソケット拡張性とは異なり、2ソケットまでしか拡張できないとのことです。そのため、Intelはマルチチップ設計に対応するために、既存のXCCダイに高度な調整を加えたと考えるのが妥当でしょう。また、各Cascade Lake-APチップは12個のメモリチャネルを備えており、これは6チャネルXCCダイ2個を1つのパッケージに統合するのとほぼ同等です。
しかし、Intelはチップが2つのダイしか搭載されていないこと、そしてCascade Lake-APモデルが最大48コアしか搭載されていないことを確認していません。つまり、Intelは全く新しいダイを設計したか、熱制限内に収めるために28コアのXCCダイあたり4コアを無効にした可能性があります。Intelは、ダイ間のEMIB接続を使用していないことを明らかにしましたが、これはおそらく電力を大量に消費するダイ間の熱膨張と収縮を考慮したものと思われますが、相互接続に関する詳細は明らかにしていません。
Intelは、これらのプロセッサに新しいソケットが必要になるかどうか(LGA5903ソケットに対応すると噂されている)を含め、具体的な詳細を明らかにしていません。Intelは、28コアのSPモデルと48コアのAPフラッグシップモデルの間のコア数ギャップを埋める複数のSKUをリリースすると予想されます。
また、Intelは「パフォーマンスリーダーシップ」製品にプレミアム価格を設定することに抵抗がないことも分かっています。現行世代の28コアXeonプロセッサの推奨顧客価格は1プロセッサあたり1万ドルであるため、これらのプロセッサは高額になる可能性があります。Intelはまだ価格を明らかにしていませんが、同社は新しいプロセッサが2019年の「前半」に発売されると述べています。
インテル Xeon E-2100 シリーズ
インテルは、Xeon E-2100シリーズプロセッサも発表しました。これらのプロセッサは、同社が今年初めにワークステーション向けにリリースしたXeon Eプロセッサと同じ基本設計を採用していますが、エントリーレベルのサーバー向けに設計されています。そのため、中小企業に最適です。インテルはまた、MicrosoftやIBMなどのクラウドサービスプロバイダーがクラウド上のデータ保護に使用している最新のSGXテクノロジーのサポートも追加しました。
画像
1
の
9

Intelは、新しいプロセッサをCoffee Lakeプロセッサと同じ基本設計で構築し、4コア4スレッドから6コア12スレッドまでのSKUで提供していますが、Xeon Eモデルは最大40のPCIe Gen 3.0レーンをサポートします。Intelは、レーンをユーザーインターフェースとして16レーンと、C246ワークステーションシリーズチップセットに接続する4つのDMI 3.0レーンに分割し、さらに24レーンの使用可能レーンを提供します。
これらのプロセッサはLGA1551ソケットに搭載され、デュアルチャネルメモリコントローラを搭載し、最大128GBのDDR4-2666 ECCメモリ(ワークステーションモデルの2倍の容量)をサポートします。E-2124を除く、Intelの新しいE-2100モデルにはすべて「G」の修飾語が付いており、これは統合型UHDグラフィックスP630エンジンを搭載していることを意味します。TDPは71Wから95Wです。
Xeon E-2100 シリーズ プロセッサは現在入手可能です。
更新: Intelは、AMD EPYCプロセッサのパフォーマンス比較のため、同時マルチスレッド(SMT)を無効にし、チップ上のスレッドの半分を無効化しました。Intelは設定に関する私たちの問い合わせに対し、以下のように回答しました。
最高のパフォーマンスを実現するために、STREAM および LINPAK を実行するときにプロセッサ上の同時マルチスレッドを無効にすることは業界の一般的な慣行であるため、ベンチマークするすべてのプロセッサでこれを無効にしました。
今年初めにIntelから提供された同じEPYC 7601プロセッサの社内パフォーマンスベンチマークを検証したところ、同社はStreamテストでSMTを無効にしていなかったことがわかりました。代わりに、コアごとに1スレッドでテストを実行するように割り当てており、これはSMTを無効にしたのと同じ効果があります。