97
DeepSeekの調査によると、HuaweiのAscend 910CはNvidia H100の推論性能の60%を実現しているという。
ファーウェイ
(画像提供:Huawei)

HuaweiのHiSilicon Ascend 910Cは、2019年に発表されたAIトレーニング向けAscend 910プロセッサの派生版です。現時点では、Ascend 910の性能は、大規模AIモデルのコスト効率の高いトレーニングにはかろうじて足りる程度です。しかし、DeepSeekの研究者によると、推論に関してはNVIDIAのH100の60%の性能を発揮します。Ascend 910Cはパフォーマンスの最高峰ではありませんが、中国におけるNVIDIA GPUへの依存度を低減する上で大きな可能性を秘めています。

DeepSeekによるテストでは、910Cプロセッサが推論性能において期待を上回ることが明らかになりました。さらに、CUNNカーネルを手動で最適化することで、その効率をさらに向上させることが可能です。DeepSeekはAscendプロセッサとPyTorchリポジトリをネイティブサポートしているため、最小限の労力でCUDAからCUNNへのシームレスな変換が可能で、HuaweiのハードウェアをAIワークフローに容易に統合できます。

これは、米国政府による制裁やTSMCの最先端プロセス技術へのアクセスの欠如にもかかわらず、HuaweiのAIプロセッサの機能が急速に進歩していることを示唆している。

HuaweiとSMICは2019年から2020年にかけてTSMCの能力に追いつき、NvidiaのA100およびH100プロセッサと競合できるチップを生産することに成功しましたが、Ascend 910CはAIトレーニングに最適な選択肢ではありません。AIトレーニングは、依然としてNvidiaが圧倒的な優位性を維持している分野です。

DeepSeekのYuchen Jin氏は、長期的なトレーニングの信頼性が中国製プロセッサの重大な弱点であると述べています。この課題は、20年以上にわたって開発されてきたNVIDIAのハードウェアとソフトウェアのエコシステムの深い統合に起因しています。推論性能は最適化できますが、継続的なトレーニングワークロードには、Huaweiのハードウェアとソフトウェアスタックのさらなる改善が必要です。

オリジナルのAscend 910と同様に、新しいAscend 910Cはチップレットパッケージを採用し、メインのコンピューティングSoCには約530億個のトランジスタが搭載されています。Ascend 910のオリジナルのコンピューティングチップレットはTSMCのN7+製造技術(EUVを使用した7nmクラス)を使用して製造されていましたが、Ascend 910CのコンピューティングチップレットはSMICの第2世代7nmクラスプロセス技術(N+2)を使用して製造されています。

今後、AIモデルがTransformerアーキテクチャに収束するにつれて、NVIDIAのソフトウェアエコシステムの重要性が低下する可能性があると予測する専門家もいます。DeepSeekのハードウェアとソフトウェアの最適化における専門知識は、NVIDIAへの依存を大幅に低減させ、特に推論においてAI企業に費用対効果の高い選択肢を提供する可能性があります。しかし、世界規模で競争するためには、中国はトレーニングの安定性という課題を克服し、AIコンピューティングインフラをさらに改良する必要があります。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。