AMDは本日、カリフォルニア州サンフランシスコで開催されたデータセンターおよびAIテクノロジープレミアイベントにおいて、一連の新製品を発表しました。同社はついに、HBM搭載の同一パッケージに3DスタックCPUコアとGPUコアを搭載したInstinct MI300Aプロセッサと、1.5TBという驚異的なHBM3メモリを搭載し、8つのアクセラレータを1つのプラットフォームに統合したGPU専用新モデルMI300Xの詳細を公開しました。
AMD の Alveo および Pensando ネットワークと DPU のポートフォリオと組み合わせることで、AMD は AI ワークロード向けのフルスタック製品を備え、AI アクセラレーション製品の主な競合相手である市場リーダーの Nvidia や、幅広い製品にわたって複数の AI アクセラレーション ソリューションを提供している Intel と直接競合することになります。
この記事はMI300に関するニュースに焦点を当てていますが、近日中に他のコンテンツへのリンクも追加する予定です。AMDから情報を受け取ったばかりなので、詳細がわかり次第、この記事を更新します。
AMD インスティンクト MI300
画像
1
の
2

Instinct MI300Aは、合計13個のチップレット(その多くは3Dスタック)を融合し、24個のZen 4 CPUコア、CDNA 3グラフィックエンジン、そして合計128GBのHBM3メモリ8スタックを統合したシングルチップパッケージを構成するデータセンターAPUです。このチップは全体で1460億個のトランジスタを搭載し、AMDが量産したチップの中で最大の規模を誇ります。5nmプロセスによるCPUとGPUを組み合わせた9個の演算ダイは、メモリやI/Oトラフィックなどの処理を担当するアクティブインターポーザーである4個の6nmプロセスによるベースダイ上に3Dスタックされています。Instinct MI300は、今年後半に稼働開始予定の世界最速スーパーコンピュータとなる、2エクサフロップスのEl Capitanに搭載されます。
画像
1
の
2

AMDは本日、GPUのみを搭載したMI300Xを発表し、そのパフォーマンスを示す複数のデモを公開しました。GPUのみを搭載したMI300Xは、大規模言語モデル(LLM)向けに最適化されており、CDNA3 GPUタイルと192GBのHBM3メモリのみを搭載しています。
24GBのHBM3チップに分散された大容量メモリにより、最大800億パラメータのLLM(論理モデル)を実行可能となり、AMDは単一GPUとしては記録的な数値だと主張しています。このチップは、8チャネルで5.2TB/秒のメモリ帯域幅と、896GB/秒のInfinity Fabric帯域幅を提供します。MI300Xは、NVIDIA H100の2.4倍のHBM密度と1.6倍のHBM帯域幅を備えており、AMDはNVIDIAのチップよりも大規模なモデルを実行できます。
このチップは、5nm (GPU) ノードと 6nm ノード (I/O ダイ) を組み合わせた 12 個の異なるチップレットから構成されており、8 個の GPU と複数の I/O ダイが含まれており、合計 1,530 億個のトランジスタを備えています。
画像
1
の
2

MI300Aは複数の異なるモードで動作可能ですが、プライマリモードは単一のメモリドメインとNUMAドメインで構成され、すべてのCPUコアとGPUコアに均一なアクセスメモリを提供します。一方、MI300Xは、すべてのGPUクラスター間でコヒーレントメモリを使用します。重要な点は、キャッシュコヒーレントメモリによって、CPUとGPU間のデータ移動が削減されることです。このデータ移動は、多くの場合、計算自体よりも多くの電力を消費します。これにより、レイテンシが低減され、パフォーマンスと電力効率が向上します。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
AMDは、400億パラメータのFalcon-40Bモデルを単一のMI300X GPUで実行するデモを実施しましたが、パフォーマンス指標は提供されませんでした。その代わりに、LLMはAMDのイベント開催地であるサンフランシスコについて詩を書きました。AMDによると、これほど大規模なモデルが単一のGPUで実行されたのは今回が初めてとのことです。
画像
1
の
2

AMDはまた、8基のMI300X GPUと合計1.5TBのHBM3メモリを搭載した単一のサーバーマザーボードに統合されたAMD Instinctプラットフォームを発表しました。このプラットフォームは、NVIDIA独自のMGXプラットフォームとは異なり、OCPに準拠しています。AMDは、このオープンソース設計により、導入が迅速化されるとしています。
CPU+GPUモデルのMI300Aは現在サンプル出荷中です。MI300Xと8GPU搭載のInstinctプラットフォームは第3四半期にサンプル出荷、第4四半期に発売予定です。詳細については現在調査中です。今後の発表にご期待ください。
ポール・アルコーンはTom's Hardware USの編集長です。CPU、ストレージ、エンタープライズハードウェアに関するニュースやレビューも執筆しています。