
業界アナリストが先日、中国が複数のデータセンターにまたがる単一の生成AI(GAI)モデルを開発したと明らかにしました。単一のデータセンターで異なるGPUを使用する複雑さ、ましてや複数の地理的な場所にあるサーバーを使用する複雑さを考えると、これは驚異的な偉業です。Moor Insights & Strategyのチーフアナリスト、パトリック・ムーアヘッド氏はX(旧Twitter)で、中国がこの偉業を達成した最初の国であり、おそらく無関係な秘密保持契約(NDA)会議に関する会話の中でこのことを発見したと述べています。
異なる場所やアーキテクチャでGAIを訓練するこの手法は、中国がAIの夢を前進させ続けるために不可欠です。特に、米国の制裁により、研究開発を推進するための最新かつ最も強力なチップの入手が阻まれているためです。Nvidiaは中国市場を失いたくないため、ワシントンの厳格な性能基準を満たす、低性能のH20 AIチップを開発しました。しかし、これらの低性能チップでさえも間もなく禁止される可能性があるという噂があり、現在の政治情勢において中国のテクノロジー企業が直面する不確実性を浮き彫りにしています。
こうした不確実性のため、中国の研究者たちは、異なるブランドのGPUを1つの訓練用クラスターに統合する取り組みを進めてきました。これにより、研究機関は、NVIDIA A100のような認可されたハイエンド・高性能チップの限られた在庫と、HuaweiのAscend 910Bや前述のNVIDIA H20のような、性能は劣るものの入手しやすいGPUを組み合わせることができます。この技術は、中国国内におけるハイエンドGPUの不足に対処するのに役立つ可能性がありますが、歴史的には効率の大幅な低下を伴います。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
ジョウィ・モラレスは、長年のテクノロジー業界での実務経験を持つテクノロジー愛好家です。2021年から複数のテクノロジー系出版物に寄稿しており、特にテクノロジー系ハードウェアとコンシューマーエレクトロニクスに興味を持っています。