AMDのリサ・スー氏は、Computex 2018で世界初の7nmプロセスGPUダイを公開しました。このパッケージは32GBのHBM2メモリを搭載し、同社の新型Radeon Instinct Vega GPUに搭載されます。熱心なファンにとっては残念なことに、AMDはInstinctカードを急成長を遂げるデータセンター向けAI・機械学習市場を捉えるために設計しましたが、スー氏は将来的にこの新プロセスをコンシューマー向けGPUにも導入する計画があると聴衆に明言しました。スー氏は新型ゲーミンググラフィックスカードがVegaアーキテクチャを採用するかどうかについては明言しませんでしたが、次世代Naviアーキテクチャを採用すると予想されます。
AMD の David Wang 氏はまた、同社が今後 3 年間、毎年新しいグラフィックス製品の開発に取り組んでいることも発表した。これは、最近リリースされたハイエンド グラフィックス カードの面でやや停滞している消費者向けグラフィックス市場にとって良い兆しとなる。
AMDは現在、7nm Vega GPUをパートナー企業にサンプル出荷しており、2018年後半には一般市場への投入を予定しています。これは予想より1四半期早いペースです。このカードは第5世代GCNマイクロアーキテクチャを採用していますが、7nmプロセスによるメリットを多く享受できます。さらに、GPUの謳い文句通り、AIワークロードに特化した最適化が数多く施されています。
AMDは、新しい7nmプロセスは14nmプロセスの2倍の密度で、7nm Vegaダイは前世代プロセスより約40%小型化されていると主張しています。また、この新プロセスは電力効率を2倍向上させ、パフォーマンスも1.35倍向上させるとAMDは主張しています。この非常に具体的な指標は、AMDが実用段階のシリコンで開発をかなり進めていることを示しています。同社は、同じイベントで7nm EPYC CPUのデモを行ったことからもわかるように、新しい7nmプロセスへの自信を深めているようです。
もう一つの根本的な変化は、Infinity Fabricの導入です。AMDはこのコヒーレントなインターコネクトを、RyzenやThreadripperプロセッサに見られるように、個別のパッケージ内のコンポーネント間の通信を容易にするために設計しました。Vega 10でもデバイス内通信に採用されています。
AMDの新しい戦略は、ファブリックをGPUの外部に拡張することで、GPU間のピアツーピア(P2P)通信を高速化するというものです。このアプローチはNVIDIAのNVLink実装に類似しており、グラフィックカード間のレイテンシを低減し、スループットを向上させるとされています。ストレージデバイスとGPU間の通信を高速化するP2Pファブリックなど、コンポーネント分野では他にもいくつかのP2P実装が定着していますが、業界では独自仕様のソリューションへと階層化が進んでいるようです。
いずれにせよ、Infinity Fabricが最終的にCPUとGPU間の通信にも拡張されると予想するのは理にかなっています。これは、x86プロセッサとGPUの両方を製造している唯一の企業であるAMDに、さらなる優位性をもたらす可能性があります。企業がヘテロジニアス・コンピューティング・アーキテクチャに移行するにつれて、インターコネクトはますます戦略的な資産になりつつあり、AMDのInfinity Fabricが引き続き利益をもたらしていることは、明るい兆候です。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
AMD はまた、パフォーマンスと効率性を向上させるために設計されたと思われる新しい一連のディープラーニング操作のサポートを GPU に組み込みました。
画像
1
の
3

AMDは当初、昨年発表した12nm GPUのリリースを計画していましたが、戦略的決定によりこれらの製品をロードマップから削除し、7nmプロセスに移行することにしました。AMDのロードマップでは次に7nm Naviを予定しており、その後、2020年末までに7nm+プロセスを採用した新しいグラフィックカードを投入する予定です。
AMDは、同社のオープンソースレイトレーシングソリューションであるRadeon Pro Renderを用いて、Cinema4Dレンダリングワークロードを実行するGPUのデモを行いました。AMDは、CUDAなどの他社のプロプライエタリソフトウェアとは対照的に、Radeon Open Ecosystem(ROCm)ソフトウェアソリューションにおいてオープンソースコミュニティを継続的に活用しています。
ニューラルネットワークはますます複雑化し、その副産物として膨大な量になっているため、AI駆動型アーキテクチャは対応するためにますます多くのメモリ容量を必要としています。AMDの32GB HBM2は、Tesla V100を32GBに増設したNvidiaの最近の調整と同等の性能となるはずですが、AMDが16GB HBM2バージョンも提供するかどうかは不明です。HBM2メモリの現在の高騰を考えると、16GB HBM2は大きな強みとなる可能性があります。AMDは、新型グラフィックスカードの仕様や価格、そして主流のグラフィックスカードの具体的なリリース時期を明らかにしていません。
ポール・アルコーンはTom's Hardware USの編集長です。CPU、ストレージ、エンタープライズハードウェアに関するニュースやレビューも執筆しています。