81
Nvidia、GPUアーキテクチャの年次リリースに移行する可能性
エヌビディア
(画像提供:Nvidia)

NVIDIAは、人工知能(AI)と高性能コンピューティング(HPC)ハードウェアにおけるリーダーシップを維持するため、新しいGPUアーキテクチャの開発を加速し、製品投入サイクルを実質的に1年周期に戻す計画です。これは、投資家向けに公開され、SemiAnalysisがさらに詳しく説明したロードマップに記載されています。その結果、NVIDIAのBlackwellは2024年に登場し、2025年には新しいアーキテクチャに後継される予定です。

しかし、Blackwellが来年(おそらく来年後半)登場する前に、NVIDIAはHopperアーキテクチャをベースにした複数の新製品を発表する予定です。これには、H100の改良版として歩留まり向上、あるいは単にパフォーマンス向上を狙ったH200製品や、ArmベースのCPUとHopperベースのGPUを用いて大規模言語モデルの学習と推論に対応するGH200NVLが含まれます。これらは、比較的早期に登場予定です。 

エヌビディア

(画像提供:Nvidia)

2024年に発売予定のBlackwellファミリーについては、NVIDIAはx86プラットフォーム上でAIおよびHPCコンピューティング向けにH100の後継製品となるB100製品を準備している模様です。さらに、同社は推論をターゲットとしたArm CPUとHopper GPUを搭載したGrace HopperモジュールとみられるGB200と、LLMトレーニングおよび推論向けのArmベースソリューションであるGB200NVLも準備しています。さらに、AI推論向けのクライアントGPUベースソリューションとみられるB40製品も計画中です。

2025年には、Blackwellの後継としてXの文字で示されるアーキテクチャが登場する見込みですが、これは今のところ仮置きでしょう。いずれにせよ、NVIDIAはX100をx86 AIトレーニングと推論、そしてHPC向けに、GX200をArm推論(Grace CPU + X GPU)、そしてGX200NVLをArmベースのLLMトレーニングと推論向けに準備しています。さらに、低コストの推論向けに、おそらくクライアントGPUベースのソリューションをベースにしたX40製品も登場する予定です。 

現時点では、Nvidia が AI GPU 市場をリードしていますが、AWS、Google、Microsoft、そして AMD や Nvidia などの従来の AI および HPC プレーヤーも、トレーニングと推論用の新世代プロセッサを準備しており、これが Nvidia が B100 および X100 ベースの製品の計画を加速させたと報じられている理由です。 

NVIDIAは、その地位をさらに強固なものにするため、TSMCの生産設備とHBMメモリを3社すべてから先行購入したと報じられています。さらに、同社はHGXサーバーとMGXサーバーを積極的に推進し、これらのマシンをコモディティ化し、特にエンタープライズAI分野においてエンドユーザーの間で普及させることを目指しています。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。