37
クアルコム、データセンター向け推論アクセラレーター「Cloud AI 100」を発表

本日、クアルコムがクラウドAI推論処理市場への参入を発表し、大きなニュースとなりました。同社はAI Dayの一環として、モバイル分野で培ってきた電力効率の専門知識をデータセンターに活かすことを目的とした7nmプロセス技術「Cloud AI 100」チップを発表しました。クアルコムはこの新チップをティア1およびティア2のクラウド事業者向けに設計し、既存の最良ソリューションと比較して推論性能が10倍向上したとしています。

Qualcommは既に、Snapdragonプロセッサをクライアントデバイスのエッジ推論における重要な役割を担うものと見ています。同社は現在、量産規模、最先端ノード、電力効率、そして信号処理における自社の能力をデータセンターにもたらしたいと考えています。Qualcommは、TSMCの7nmノードで構築されたQualcomm Cloud AI 100によって、5Gの低レイテンシ化を実現し、クラウドとエッジの性能と効率を大幅に向上させることを目指しています。

Qualcommはパフォーマンスやアーキテクチャの詳細についてはまだ発表していませんが、Cloud AI 100は「現在利用可能な業界最先端のAI推論ソリューションの10倍以上のパフォーマンス」を提供すると述べています。Qualcommはまた、PyTorch、Glow、TensorFlow、Keras、ONNXなどの主要なソフトウェアスタックのサポートにも注力しています。

これはかなり早い発表であり、同社はまだ実用的なシリコンを開発していません。QualcommはFacebook、Microsoft、ODMなどのパートナーと協力し、様々なフォームファクターと電力レベルの製品を開発しています。同社はM.2フォームファクターに収まる20Wから75Wの範囲の電力レベルを目標としています。Cloud AI 100は今年後半にサンプル出荷を開始し、2020年には量産開​​始を予定しています。

市場の評価

ディープラーニングはトレーニング(モデルの構築)と推論(モデルの使用)に分かれていますが、AI分野における初期の成長は、NvidiaのTesla GPUが優勢だったトレーニングワークロードから生まれました。Nvidiaは2017年に20億ドル、昨年はデータセンターから30億ドルの収益を上げました。

ディープラーニングの当初の盛り上がりは少し落ち着いてきましたが、AI 市場は今後さらに拡大すると予想されており、特に焦点が推論に移りつつある中で、大企業やスタートアップ企業が市場シェアを競い合っています。推論は時間の経過とともにトレーニングよりもはるかに大きくなると予想されています。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

CPUやFPGAなど、多様なコンピューティングリソースを活用できることから、推論もより魅力的に見えています。また、エッジにおける推論の重要性も高まっています。Intelは最近、Xeon上で稼働するAIによる収益が10億ドルに達したと発表しました。また、Qualcommはデータセンターにおける推論市場が2025年までに170億ドル規模になると予測しています。これは、Intelが予測した成長トレンド(2022年までにディープラーニング市場が100億ドル規模になると予測)の継続と言えるでしょう。

昨年、Nvidiaは推論向けにTuringベースのTesla T4を発売しましたが、同社も2020年までに7nmプロセスに移行する可能性が高いでしょう。CESでは、Intelが推論向けNervana NNP-Iを発表し、2019年に生産開始予定です。Naveen Rao氏は、Nervana NNP-Iが10nmプロセスで製造され、Sunny Coveコアを搭載することを確認しました。Intelもワットあたりの性能を重視していると述べており、Cloud AI 100と同様に、Nervana NNP-IもM.2フォームファクターに収まる予定です。これらの類似点を考えると、この2つは近い競合となるはずです。NNP-Iは、トレーニング用でTSMC 16nmプロセスで製造されるNNP-L 1000と混同しないように注意が必要です。

この発表は、Qualcomm が Centriq データセンター プロセッサで参入しようとしていた CPU クラウド市場から撤退するとの報道を受けてのものでもある。

画像クレジット: Qualcomm