画像
1
の
2

Computex 2023の開催期間中、台湾台北にあるAMDのオフィスを訪れ、同社のコーポレートバイスプレジデント兼クライアントチャネル事業担当ゼネラルマネージャーであるデビッド・マカフィー氏と対談しました。また、AMDのRyzen XDNA AIエンジンが実際に動作するノートパソコンのデモを見る機会もありました。マカフィー氏は、PC上でローカル実行される急成長中のAIユースケースに対応するために、AMDがOSとソフトウェアエコシステムを整備していくための取り組みについて説明しました。これについては後ほど詳しく説明します。
上に示した AMD コードネームにちなんで名付けられた廊下マップに従って進んだ後、私はデモ ルームに行き、AMD の最新技術が実際に動作しているのを確認しました。
画像
1
の
12

AMDのデモ用ノートPCは、ASUS Strix Scar 17で、AMDの4nm「Phoenix」Ryzen 9 7940HSプロセッサとRadeon 780Mグラフィックスを搭載しています。35~45Wのこれらのチップは、Zen 4アーキテクチャとRDNA 3グラフィックスを搭載しています。AMDは、同じデモを実行するASUS ROG Zephyrus G14も展示していました。
XDNA AIエンジンは、CPUコアと一体化したオンダイの専用アクセラレータです。XDNA AIエンジンの目標は、音声、写真、動画処理といった低負荷のAI推論ワークロードを、CPUやGPUよりも低い消費電力で実行し、オンラインサービスよりも高速な応答時間を実現することで、パフォーマンスを向上させ、バッテリー消費を節約することです。
まず、タスクマネージャーを開いて、AIエンジンが使用率メトリックとともに表示されるコアとして表示されるかを確認してみましたが、XDNA AIエンジンはタスクマネージャーにデバイスとして表示されませんでした。上のアルバムでご覧のとおり、デバイスマネージャーではAIエンジンが「AMD IPUデバイス」として表示されていました。しかし、テスト中はコアからの負荷やその他のテレメトリを観察できませんでした。
画像
1
の
1

ここでは、XDNA AIエンジンが顔認識ワークロードを高速処理している様子を見ることができます。画面右側には、ワークロードの各ステップにおけるレイテンシの測定値が表示されています。バーは非常に低く、AIエンジンが推論ワークロードを高速処理する中で、ワークロードは一連の画像を高速に処理しています。ただし、これらの数値が他の種類のソリューションとどのように比較されるかについては、現時点では不明です。
AMDのデモには、オンボードAIエンジンをオンラインのAzure ONNX EPサービスと比較するボタンがありましたが、デモチームによるとソフトウェアに問題が発生したため、動作しなかったとのことでした。当然のことながら、Ryzen内蔵AIエンジンはAzureサービスよりもレイテンシが低いと予想され、論理的に言えば、AMDはまさにそれを実証しようとしていたのです。残念ながら、ベンチマーク結果の実質的な比較ポイントは得られませんでした。
しかし、このベンチマークは、AMD の Ryzen 7040 プロセッサ上で AI が活発に機能していることを示しており、同社は AI エンジンを活用できるアプリケーションの数を順調に増やしている。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
このエンジンは最大4つの同時AIストリームを処理できますが、ストリーム数に応じて迅速に再構成できます。また、INT8およびbfloat16命令も処理します。これらの低精度データ型は、他のデータ型よりもはるかに高い電力効率を提供します。少なくとも、AI推論などのメリットを活用できるワークロードでは顕著です。AMDは、Xilinx IPを継承したこのエンジンは、AppleのM2プロセッサに搭載されているニューラルエンジンよりも高速であると主張しています。このエンジンはチップのメモリサブシステムに直接接続されているため、CPUおよび統合GPUとコヒーレントメモリプールを共有し、コストのかかるデータ転送を排除することで、電力効率とパフォーマンスを向上させます。
AMDは先週、MicrosoftのBuildカンファレンスで、オープンソースのVitis AI Execution Provider(EP)を活用した新しい開発者ツールセットを作成したと発表した。このツールはONNXランタイムにアップストリーム化され、XDNA AIエンジンのソフトウェアサポート追加に必要な作業を容易にする。McAfeeは、Vitis AI EPは一種のベアメタル変換レイヤーとして機能し、開発者はベースモデルを変更することなくモデルを実行できると説明した。これにより統合が簡素化され、AMDの実装は現在、Adobeなど、IntelがMeteor Lake内のVPUで使用しているのと同じアプリケーションで動作する。また、Intelのアプローチと同様に、AMDはさまざまなAI推論ワークロードを、ワークロードのニーズに基づいてCPU、GPU、XDNAエンジンなど、適切なタイプのコンピューティングに誘導する。
AMDはAIエンジンのパフォーマンス指標をまだ公開していないが、マカフィー氏は、オンボードAIエンジンの利点をTOPSのような単一のパフォーマンス指標だけで定量化するのは難しいと指摘した。なぜなら、高い電力効率と低いレイテンシは、AIエンジンを搭載することによる多面的なメリットの一部だからだ。ただし、AMDは将来的に数値を公開する予定だ。
マカフィー氏は、AMDがXDNA AIロードマップを継続的に実行し、将来的には他のRyzenプロセッサにもこのエンジンを追加する計画を改めて強調しました。しかし、PCにおけるAIのソフトウェアエコシステムはまだ初期段階にあり、AMDは実用上のメリットとのトレードオフを模索し続けるでしょう。
AI エンジンを内蔵することの利点の多くは電力効率にあります。これは、ノートパソコンなどの電力に制約のあるデバイスでは必須の要素です。しかし、推論ワークロードに強力な専用 GPU または CPU を使用できる制約のないデスクトップ PC では、バッテリー寿命の懸念がなく、それほど意味がない可能性があります。
マカフィー氏に、これらの要因がAMDがXDNAをデスクトップPCに搭載するかどうかの判断に影響を与える可能性があるか尋ねたところ、同氏は、結局のところ、この機能が十分な価値を提供し、貴重なダイ領域をエンジンに割く価値があるかどうかにかかっていると答えました。AMDは、特にRyzen 7040が市場に投入される中で、その影響をまだ評価中です。
現時点ではAMDは将来の計画について何も明言していないが、マカフィー氏は、AMDはAIエンジンを将来のロードマップに組み込むことを約束しているものの、すべての製品に搭載されるわけではないと述べた。その点について、マカフィー氏は、デスクトップPCなど、AMDのチップレット戦略を活用した異なる種類のチップについては、他の選択肢が存在する可能性があると述べた。アドインカードなどの他の選択肢も解決策として考えられる。
確かなことが一つあります。スケーラブルな統合型XDNA AIエンジンは、今後もAMDの多くの製品に搭載されていくでしょう。次回のデモでは、さらに素晴らしいものを見せてくれることを期待しています。
ポール・アルコーンはTom's Hardware USの編集長です。CPU、ストレージ、エンタープライズハードウェアに関するニュースやレビューも執筆しています。