78
AMD、FPGA AIエンジンをEPYCプロセッサに統合、2023年に登場

ライゼン 7 5800X3D

(画像提供:Tom's Hardware)

AMDは決算報告の電話会議で、自社のCPUポートフォリオにザイリンクスのFPGA搭載AI推論エンジンを組み込み、最初の製品を2023年に発売する予定であると発表した。このニュースは、AMDが540億ドルのザイリンクス買収の成果を自社の製品ラインナップに組み込むべく迅速に動いていることを示唆しているが、全く驚くことではない。同社の最近の特許は、高度な3Dチップスタッキング技術の使用を含む、AIアクセラレータを自社のプロセッサに接続する複数の方法を実現する取り組みが既に順調に進んでいることを示している。

AMDがCPUと内蔵FPGAを同一パッケージに統合するという決定は、全く新しいものではありません。Intelも、2015年末に167億ドルでAlteraを買収し、獲得したFPGAポートフォリオで同様のアプローチを試しました。しかし、Intelは2014年にCPUとFPGAを組み合わせたチップを発表し、テストチップのデモも行いました。しかし、実際にシリコンが登場したのは2018年で、それも限定的な実験的な形での発表にとどまり、どうやら行き詰まったようです。Intelのこのプロジェクト、あるいはその派生製品については、もう何年も耳にしていません。 

画像

1

3

AMD
(画像提供:AMD)

AMDはFPGA搭載製品の詳細をまだ明らかにしていないが、Xilinx FPGAシリコンを自社チップに接続する同社のアプローチは、かなり高度なものになると思われる。Intelは標準のPCIeレーンとQPIインターコネクトを活用してFPGAチップをCPUに接続したが、AMDの最近の特許は、複数のパッケージオプションに対応できるアクセラレータポートの開発に取り組んでいることを示唆している。

これらの選択肢には、AMDが現在Milan-XプロセッサでSRAMチップレットを接続するために使用しているのと同様の3Dスタッキングチップ技術が含まれます。この技術は、プロセッサのI/Oダイ(IOD)上にFPGAチップレットを融合するものです。このチップスタッキング技術は、パフォーマンス、消費電力、メモリスループットの面で優位性をもたらしますが、AMDの既存の3Dスタッキングチップに見られるように、チップレットをコンピューティングダイの近くに配置した場合、熱の問題が生じ、パフォーマンスが低下する可能性があります。AMDがI/Oダイ上にアクセラレータを配置するという選択肢は、熱の問題に対処し、隣接するCPUチップレット(CCD)からより多くのパフォーマンスを引き出すことができるため、非常に理にかなっています。

AMDには他にも選択肢があります。アクセラレータポートを定義することで、チップレットを他のダイの上に積み重ねたり、CPUチップレットの代わりに個別のアクセラレータチップレットを使用する標準的な2.5D実装にチップレットを配置したりすることが可能になります(上図参照)。さらに、AMDはGPU、ASIC、DSPなど、他の種類のアクセラレータも柔軟に活用できます。これにより、AMD独自の将来の製品に豊富な選択肢がもたらされるだけでなく、顧客はセミカスタムビジネス向けにAMDが設計するカスタムプロセッサに、これらの様々なチップレットを組み合わせることも可能になります。

クラウド ネイティブ アプリケーションに最適化された新しいタイプの「Zen 4c」コアを搭載した AMD 独自の最近発表された 128 コア EPYC Bergamo CPU からもわかるように、データ センターでカスタマイズの波が続くにつれ、この種の基礎技術は確実に役立つでしょう。

AMDは既にデータセンター向けGPUとCPUをAIワークロードの対応に活用しており、GPUは通常、AIモデルのトレーニングといった計算負荷の高いタスクを担っています。AMDは、ザイリンクスFPGA AIエンジンを主に推論に活用し、事前トレーニング済みのAIモデルを用いて特定の機能を実行します。

AMDのアダプティブ&エンベデッドコンピューティンググループ社長であるビクター・ペン氏は、同社の決算説明会で、ザイリンクスはすでに画像認識や、組み込みアプリケーション、そして自動車などのエッジデバイスにおける「あらゆる」推論アプリケーションにこのAIエンジンを採用していると述べた。ペン氏は、このアーキテクチャは拡張性に優れており、同社のCPUに最適であると指摘した。

推論ワークロードはトレーニングほど多くの計算能力を必要とせず、データセンターでの導入においてはるかに普及しています。そのため、推論ワークロードは広大なサーバーファームに大量に導入されており、NVIDIAはT4のような低消費電力の推論GPUを開発し、IntelはXeonチップのハードウェア支援によるAIアクセラレーションを活用してこれらのワークロードに対処しています。

AMDが差別化されたシリコンでこれらのワークロードをターゲットにするという決定は、特定のデータセンター展開においてNVIDIAとIntelの両社に対して優位に立つ可能性を秘めています。しかしながら、常にそうであるように、鍵となるのはソフトウェアです。AMDのCEOであるリサ・スー氏とペン氏は共に、ザイリンクスのソフトウェア専門知識を活用してソフトウェアスタックを最適化することを改めて強調し、ペン氏は「私たちは幅広いポートフォリオを統合したソフトウェア基盤の構築に取り組んでいますが、特にAI分野に重点を置いています。金融アナリストデーで詳細をお伝えしますが、推論とトレーニングの両面でAIに注力していくつもりです」と述べています。

AMD の Financial Analyst Day は 2022 年 6 月 9 日であり、そのときに新しい AI 搭載 CPU についてさらに詳しく知ることができるはずです。 

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

ポール・アルコーンはTom's Hardware USの編集長です。CPU、ストレージ、エンタープライズハードウェアに関するニュースやレビューも執筆しています。