リフレッシュ
AMD は画面上に警告文を表示し始めたので、ショーはもうすぐ始まります。
AMD CEOのリサ・スー氏がステージに登場。彼女はプレゼンテーションの冒頭、ちょうど1年前のChatGPTのローンチと、それが世界に与えた爆発的な影響について回想しました。
生成AIは、学習と推論のワークロードのニーズを満たすために、多大な投資を必要とします。1年前、AMDは2027年までにAIワークロードのTAM(市場占有率)が1,500億ドルに達すると予測していました。現在、AMDはこの予測を2027年には4,000億ドルに修正しています。
AMDは現在、AI導入の障壁を取り除き、パートナーと協力して新しいソリューションを開発することに注力しています。
リサ・スー氏は、GPUハードウェアの入手性が最大の障壁であると述べました。そして今、同社はInstinct MI300アクセラレータの発売によってこの課題の解決に貢献しています。新しいCDNA 3アーキテクチャは、複数の面で大幅なパフォーマンス向上を実現します。
MI300 には 1500 億個のトランジスタ、128 チャネルの HBM3、第 4 世代 Infinity Fabric、および 8 つの CDNA 3 GPU チップレットが搭載されています。
Instinct MI300は画期的な設計です。このデータセンターAPUは、合計13個のチップレット(その多くは3Dスタック)を統合し、24個のZen 4 CPUコア、CDNA 3グラフィックエンジン、そして8スタックのHBM3を融合したチップを構成しています。このチップは全体で1460億個のトランジスタを搭載し、AMDがこれまでに量産したチップの中で最大規模となります。
AMDは、特定のワークロードにおいて、NVIDIAのH100 GPUと比較して最大1.3倍のパフォーマンスを発揮すると主張しています。上記のスライドは、主張されているパフォーマンス上の優位性について概説しています。
スケーラビリティは非常に重要です。GPUの数が増えるにつれて、パフォーマンスは直線的に向上する必要があります。ここでAMDは、NVIDIAの8GPU H100 HGXシステムに匹敵する性能を、8GPU搭載のAMDプラットフォームで実現しています。
MI300は、トレーニングではNvidiaと同等のパフォーマンスを発揮しますが、推論において最も大きな優位性を発揮します。AMDは推論において1.6倍の優位性を強調しています。
Microsoft CTO の Kevin Scott 氏がステージに上がり、Lisa Su 氏と AI インフラストラクチャの構築における課題について話し合いました。
詳細について話し合っている間に、MI300 についての詳細をいくつか紹介します。
Microsoft は、MI300X クラウド インスタンスを本日プレビューで提供開始します。
Lisa Su は AMD Instinct MI300X プラットフォームを展示しました。
AMD CTO Victor Peng 氏がステージに登場し、Nvidia の CUDA に対抗する AMD のオープンソース製品 ROCM の最新の進歩について語りました。
Peng 氏は、Nvidia の独自のアプローチとは対照的に、オープンな ROCm エコシステムの利点について語りました。
AMDの次世代ROCm 6が今月下旬に発売されます。Radeon GPUのサポートは継続されますが、MI300向けの新たな最適化も施されています。
ROCm は vLLM で最大 2.6 倍の改善を実現し、その他の最適化により MI250X の ROCm 5 と比較して MI300X では合計 8 倍の改善を実現します (これはあまり良い比較ではありません)。
AMD は、Hugging Face や PyTorch などの業界の大手企業と連携して、オープンソース エコシステムの拡大に取り組んでいます。
MI300 を含む AMD GPU は、バージョン 3.0 以降の標準 Triton ディストリビューションでサポートされます。
Peng 氏は現在、Databricks、essential AI、Lamini のリーダーたちと話し合っています。
話は AI のさまざまな形態と、将来起こりうる進化的アップデートに移りました。
AMDの新しいInstinct MI300Xプラットフォームの仕様をいくつかご紹介します。このシステムは、8基のMI300Xアクセラレータを1つのシステムに統合しています。400GbEネットワークをサポートし、合計1.5TBという驚異的なHBM3容量を誇ります。
現在、Instinctシリーズでは62,000のAIモデルが稼働しており、MI300Xではさらに多くのモデルが稼働する予定です。Peng氏は、ROCm 6の登場はAMDソフトウェアのより広範な採用における転換点となると述べています。
Lisa Su がステージに戻り、Meta のエンジニアリング シニア ディレクターである Ajit Mathews をステージに招待しました。
Meta は、AI に対するオープンソースのアプローチが業界にとって最善の進路であると考えています。
Metaは数年にわたりROCmのベンチマークを実施し、PyTorchでのサポート構築に取り組んできました。Metaは自社のデータセンターにInstinct MI300X GPUを導入する予定です。
AMD は、市場の収益性の高い部分である企業向けに統合 AI ソリューションを市場に投入する取り組みを進めています。
Dellのグローバル インフラストラクチャ ソリューション グループ、コア ビジネス オペレーション担当社長、アーサー ルイス氏に、同社と AMD とのパートナーシップについてお話を伺いました。
Dell は AMD の MI300X をポートフォリオに追加し、8 つの GPU を内蔵した Poweredge サーバーを提供しています。
Supermicro の創設者兼 CEO である Charles Liang 氏が登壇し、同社が新しいシステムで生成 AI の波をいかに取り入れているかについて語りました。
Supermicro には、空冷式と水冷式の両方のバージョンの MI300X システムがあり、顧客はラック スケール ソリューションを構築できます。
レノボ・インフラストラクチャー・ソリューションズ・グループのエグゼクティブ・バイスプレジデント兼プレジデントであるカーク・スカウゲン氏が登壇しました。レノボは、新しいAI ThinkEdgeシステムの開発に注力しています。
Lenovo は、ThinkSystem プラットフォームに MI300X を追加しました。
AMD は膨大な数の OEM および ODM システム ベンダーと提携しており、現在は新しいクラウド サービス プロバイダーとも連携しています。
AMD のデータセンター グループの EVP 兼 GM である Forrest Norrod 氏がステージに登場しました。
AI パフォーマンスのニーズによりクラスターの成長が促進され、高性能ネットワークが必要になります。
AMD は Infinity Fabric テクノロジーを使用してほぼ線形のパフォーマンス スケーリングを実現し、Nvidia は NVLink を使用します。
AMDは現在、Infinity Fabricテクノロジーを外部企業に公開しており、これは同社のネットワークプロトコルを利用する企業の数を拡大する大きな発表となるでしょう。一方、NVIDIAのCUDAは依然として独自の技術です。
AMDは、データセンターネットワークにおいて、ファイバーチャネルよりもイーサネットの方が優れたソリューションだと考えています。イーサネットには、拡張性やオープン設計など、多くの利点があります。AMDは、AIおよびHPCワークロードのパフォーマンスをさらに向上させる新しいUltra Ethernet規格に参画しています。
Norrod 氏は Arista、Broadcom、Cisco の代表者をステージに招き、データセンター向けイーサネット標準の継続的な採用の重要性について講演しました。
これがなぜ重要なのか疑問に思う方もいるかもしれません。NvidiaはMellanoxを買収し、同社のファイバーチャネルネットワーク機器を自社システムに積極的に採用しています。ちなみに、NvidiaはUltra Ethernetコンソーシアムのメンバーではありません。
ハードウェアに関する新たな発表がありました。Norrod 氏は AMD の CPU に対する従来のアプローチについて語っています。
MI300A の驚くべき統計データをご紹介します。
AMDは、MI300AがOpenFOAMバイクテストで最大4倍のパフォーマンスを発揮すると主張していますが、この比較は理想的ではありません。H100はGPUですが、MI300AのCPUとGPUの融合コンピューティングは、共有メモリアドレス空間を通じて、メモリを大量に消費するワークロードにおいて本質的な優位性を提供します。CPUとGPUを緊密に結合した実装で統合されているNvidia Grace Hopper GH200スーパーチップとの比較の方が適切ですが、AMDはNvidiaのチップに関するOpenFOAMの結果が公開されているものは見つからなかったと述べています。
AMD によれば、MI300A は Nvidia Grace Hopper スーパーチップの 2 倍の電力効率だという。
MI300Aの素晴らしいショットをご紹介します。
AMDは、MI250Xアクセラレータを搭載したFrontierスーパーコンピュータでエクサスケールの壁を突破しました。現在、MI300AはEl Capitanに導入され、2エクサフロップスの性能を達成すると予想されています。
MI300A は、世界中のパートナーからまもなく入手可能になります。
AMD は、Windows で AI アクセラレーション ソフトウェア エコシステムを実現するために熱心に取り組んできました。
AMDは本日、Ryzen AI 1.0ソフトウェアをリリースしました。このソフトウェアにより、顧客はNPU搭載ノートPCにAIモデルを簡単に導入できるようになります。
リサ・スーは、コードネーム「Hawk Point」のRyzen 8040シリーズの発売を発表しました。これらのチップは現在パートナー企業に出荷されています。AMDは、AIワークロードにおけるパフォーマンスが最大60%向上すると主張しています。
AMD は Microsoft と協力して、AI 処理能力を活用した AI エコシステムを拡大しています。
リサは、来年登場予定の次世代「Strix Point」プロセッサについて少し触れました。AMDはXDNA 1の性能についても言及し、Phoenix 7040シリーズではNPU単体で10 TOPS(テラオプス INT8)の性能を発揮し、Hawk Point 8040シリーズでは16 TOPSに向上すると述べています。
まとめのスライドをご覧ください。MI300XとMI300Aはすでに出荷されており、幅広いOEMパートナーで生産されています。ROCm 6も登場し、AMDはRyzen 8040シリーズを発売しました。
こうしてリサはショーを終えた。