AMDの本日の発表を受けて、カバーすべき技術的領域は多岐にわたります。GenoaとBergamo、3D V-Cache搭載のMilan-X、そしてInstinct MI200 MCM(マルチチップモジュール)GPUはさておき、これらすべての技術の交差点に立つ重要な要素が1つあります。それは、本日発表されたバージョン3.0のAMD Infinity Fabricです。AMDが2020年3月にこの新しい接続スキームを初めて導入して以来、劇的な進化を続けています。
AMDのInfinity Fabricは、多くの点で、AMDが目指すヘテロジニアス・システム・アーキテクチャ(HSA)システムの延長線上にあると言えます。現在、AMDのCPUおよびGPUソリューションにおけるチップ内およびチップ間通信を支えています。Infinity Architectureソリューションと言える単一の技術はありません。この名称は、AMDの最新製品に採用されている複数の相互接続技術を集約し、システムパフォーマンス(特にHPCパフォーマンス)を飛躍的に向上させることを目指す、CPU + GPUの一貫したテクノロジーを生み出しています。
画像
1
の
3

Infinity Fabric 3.0 は、AMD が 2008 年に開始した「The Future is Fusion」マーケティング キャンペーンで夢に描いた未来を実現します。同社の CPU および GPU ソリューション間の相互接続とリソース共有のためのコヒーレント通信バスを導入し、パフォーマンスの向上、レイテンシの低減、消費電力の低減を実現します。
考え方はシンプルです。データの移動は計算コストが高いからです。そのため、Infinityアーキテクチャは、ストレージバンク(VRAM、システムRAM、CPUキャッシュなど)間のデータ移動を可能な限り削減するように設計されています。ハードウェアパズルのあらゆるピースが、どの情報がどこにあるのかを認識し、「必要に応じて」アクセスできれば、大幅なパフォーマンス向上が実現できます。
画像
1
の
3

AMDのInfinity Architecture 3.0は、Infinity Fabricテクノロジーをほぼあらゆる点で基盤としています。前世代のInfinity Fabricアーキテクチャでは、CPUとGPU間の通信はPCIeバス経由で(非コヒーレントに)行う必要がありました。つまり、理論上のピーク帯域幅はPCIeリンクの限界(PCIe 4.0では16GT/s)までしか拡張できませんでした。また、デュアルソケットシステムでは、PCIeで相互接続されたGPUの最大数は4枚のグラフィックカードに制限されていました。しかし、新しいInfinity Architectureでは、すべての通信がInfinity Fabric 3.0リンク経由で行われるため、PCIeの非コヒーレント通信は発生しません。ただし、必要に応じてPCIeにフォールバックする機能は備えています。
さらに、Infinity Fabric は、MI250X に搭載された 2 つの GPU ダイ間で 400 GB/秒の双方向リンクを実現するために使用され、初の製品化されたマルチチップ GPU が実現しました。
新しく改良されたInfinityアーキテクチャは、デュアルソケットEpyc CPUシステム間のコヒーレントな通信チャネルを実現するだけでなく、同時GPU接続の最大数を4から8に増加させます。グラフィックスカード間の通信速度も大幅に向上し、Infinityアーキテクチャは各Infinity Fabricリンク全体で100GB/秒の帯域幅を実現しました。これにより、最大2基のEPYC CPUと8基のGPUアクセラレータを搭載したシステム全体に十分なスループットを提供します。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
Francisco Pires 氏は、Tom's Hardware のフリーランス ニュース ライターであり、量子コンピューティングに関心を持っています。