
新たな報道によると、AmazonやGoogleは最新の人工知能(AI)チップについて何かを発表する前に、まずNVIDIAのCEO、ジェンスン・フアンに通知しているという。The Informationが最近報じたNVIDIAの社内取引に関する記事で情報筋が指摘したこの慣行は、AIハードウェア市場の静かな現実を浮き彫りにしている。NVIDIAは依然としてトレーニング用コンピューティングの主要サプライヤーであり、顧客は供給停止を回避しようとしているのだ。
報道によると、AmazonとGoogleはそれぞれ、カスタムチップのアップデートを発表する前に、Huang氏に事前に通知しているという。関係者によると、その理由は、NVIDIAが依然として両社のクラウド事業に深く関わっており、両社ともAIインフラ供給を実質的に管理する人物にサプライズを与えたくないからだ。NVIDIAは大規模言語モデルの学習に使用されるアクセラレータの圧倒的多数を占めており、同社のGPUはパブリッククラウドにおける推論タスクでもますます多くの割合を担っている。
これらの投資の規模とタイミングは、NVIDIAが非GPUアクセラレータの台頭をいかに積極的に先取りしようとしているかを示しています。Amazon、Google、OpenAIといった企業は、NVIDIAハードウェアへの依存度を低減し、大規模なパフォーマンス向上やコスト削減を目的とした自社製シリコン開発に注力しています。しかし、長年の努力と数百億ドルの投資にもかかわらず、これらの企業のプラットフォームは依然としてNVIDIAのCUDAエコシステム、ソフトウェアツール、そして製造パイプラインに大きく依存しています。
The Informationによると、NVIDIAの優位性は、同社がAIサプライチェーン全体にとって財務的なバックストップのような役割を果たす力学を生み出しているという。同社は現在、サプライヤーへの資金提供、生産能力の貸し出し、そして長期的な購入の保証を行うことで、自社ハードウェアへの継続的な需要を支えることができる。そのため、たとえ競合製品を開発しているとしても、個々の顧客がNVIDIAから離れることはより困難になっている。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
ルーク・ジェームズはフリーランスのライター兼ジャーナリストです。法務の経歴を持つものの、ハードウェアやマイクロエレクトロニクスなど、テクノロジー全般、そして規制に関するあらゆることに個人的な関心を持っています。