
データセンターにおけるさらなるコンピューティング能力の需要は驚異的なペースで高まっており、AMD は 120 万個以上の GPU を搭載した単一の AI クラスターの構築について真剣な問い合わせを受けていることを明らかにしました。
AMDのこの発言は、 The Next PlatformがAMDのEVP兼データセンターソリューショングループGMであるフォレスト・ノロッド氏と、データセンターにおけるAMDの将来について長時間にわたって議論した結果です。最も衝撃的な回答の一つは、誰かが真剣に検討している最大規模のAIトレーニングクラスターに関するものでした。
同社が 120 万 GPU 規模のクラスターに関する問い合わせを受けたことがあるかと尋ねられると、フォレスト氏は、その評価はほぼ正確であると答えた。
モーガン: 誰かが真剣に検討している最大のAIトレーニングクラスターはどれですか?名前を挙げる必要はありません。MI500を使うには120万基のGPUが必要だとか、そういうことを言われたことはありますか?フォレスト・ノロッド:そのくらいでしょうか?はい。
モーガン: 「その範囲内だ」と簡単に言うことはできません。実際の最大数はどれくらいですか?フォレスト・ノロッド:冗談抜きで、その範囲内です。
モーガン: 1台のマシンについてです。フォレスト・ノロッド:ええ、1台のマシンについて話しているんです。
モーガン: ちょっとびっくりするよ。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
Aaron Klotz 氏は Tom's Hardware の寄稿ライターであり、CPU やグラフィック カードなどのコンピューター ハードウェアに関するニュースを扱っています。