
中国のスタートアップ企業DeepSeekは、最近、その高度なAIモデル「R1」のコンピューティングリソース使用量が驚くほど低いことで、テクノロジー業界で注目を集めました。同社は、DeepSeekのトレーニング費用はわずか600万ドル、GPUは2,048基に過ぎないと主張していますが、R1はOpen AIの「o1」と競合すると考えられています。しかし、業界アナリスト企業のSemiAnalysisによると、DeepSeekの開発元である同社はハードウェアコストに16億ドルを費やし、5万基のNvidia Hopper GPUを保有しているとのことです。これは、DeepSeekがAI業界のリーダー企業よりも大幅に低い投資でAIのトレーニングと推論を革新したという見方を覆すものです。
レポートによると、DeepSeekは約5万台のHopper GPUを備えた大規模なコンピューティングインフラストラクチャを運用しています。これには、H800とH100がそれぞれ1万台ずつ含まれており、SemiAnalysisによると、H20ユニットも追加購入されています。これらのリソースは複数の拠点に分散されており、AIトレーニング、研究、財務モデリングなどの用途に使用されています。SemiAnalysisによると、同社のサーバーへの総設備投資額は約16億ドルで、運用コストに9億4,400万ドルが費やされていると推定されています。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
アントン・シロフはTom's Hardwareの寄稿ライターです。過去数十年にわたり、CPUやGPUからスーパーコンピュータ、最新のプロセス技術や最新の製造ツールからハイテク業界のトレンドまで、あらゆる分野をカバーしてきました。