39
NVIDIAの最高級H100 AI GPUの購入者は、供給問題が緩和されるにつれて、それを転売していると報じられている。
(画像提供:Nvidia)

人工知能(AI)や高性能コンピューティング(HPC)アプリケーションで広く使用されているNVIDIAのH100 GPUのリードタイムが、8~11か月からわずか3~4か月へと大幅に短縮されたという証拠が積み重なっています。その結果、H100 80GBプロセッサを大量に購入していた一部の企業は、現在、それらを処分しようとしています。Amazon Web Services、Google Cloud、Microsoft Azureなどの大手企業からレンタルすることがはるかに容易になりました。一方、独自の大規模言語モデルを開発している企業は、依然として供給上の課題に直面しています。
The Information によると、一部の企業はH100 GPUの希少性の低下と未使用在庫の維持コストの高さから、H100 GPUを再販したり、注文を減らしたりしているという。これは、NvidiaのHopper GPUの入手が大きな課題だった昨年とは大きく異なる状況だ。The Information によると、チップの入手性が向上し、リードタイムが大幅に短縮されたにもかかわらず、AIチップの需要は供給を上回り続けており、特にOpenAIのように独自に法学修士課程(LLM)を育成している企業では需要が高まっている という。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。