38
Intel は、Microsoft の Copilot AI がまもなく PC 上でローカル実行されることを確認しました。次世代 AI PC には 40 TOPS の NPU が必要です…
人工知能
(画像提供:Intel)

マイクロソフトのCopilot AIサービスがクラウドではなくPC上でローカルに実行されるようになる、また、ニューラル・プロセッシング・ユニット(NPU)に40TOPSの性能要件を課すという業界の噂については、以前お伝えしましたが、これらの噂を公式に裏付ける証拠は得られていません。しかし、台北で開催されたIntelのAIサミットで、その噂は一変しました。Intelの幹部は、Tom's Hardwareとの質疑応答の中で、Copilotの要素がPC上でローカルに実行されるようになると述べました。また、次世代AI PCのNPUには40TOPSの性能要件が求められるとも言及しました。

マイクロソフトはAI PCに関する計画についてほとんど沈黙を守っており、インテルがマイクロソフトのAI PCの新しい定義を公式に発表することを許可しました。マイクロソフトとインテルが共同開発した新しい定義では、AI PCはNPU、CPU、GPU、マイクロソフトのCopilot、そしてキーボードに直接配置された物理的なCopilotキーを搭載するとされています。 

これらの要件を満たすPCはすでに出荷されていますが、これはAI PCイニシアチブの第一波に過ぎません。Intelは、メモリ要件の可能性に関する私の質問に対し、将来のAI PCの要件を明らかにしました。 

「しかし、おっしゃる通り、将来的には継続性、あるいは進化を遂げ、NPUに40TOPSの要件を備えた次世代AI PCへと移行していくでしょう」と、インテルのクライアントコンピューティンググループ担当副社長、トッド・ルウェレン氏は述べた。「私たちは、まさにそのカテゴリーに属する次世代製品をリリースする予定です。」 

「[…]そして次世代へと移行するにつれて、Copilot のより多くの要素がクライアント上でローカルに実行されるのと同じように、より多くのものをローカルで実行できるようになります。Copilot のすべてがローカルで実行されるわけではありませんが、NPU で実行されることで多くの重要な機能が利用できるようになります。」

現在、Copilotの計算はクラウドで行われていますが、ワークロードをローカルで実行することで、レイテンシ、パフォーマンス、プライバシーのメリットが得られます。注目すべきは、IntelのMeteor Lake NPUは最大10TOPSのNPUを搭載しているのに対し、AMDの競合プラットフォームRyzen Hawk Pointは16TOPSのNPUを搭載しており、どちらも40TOPSの要件を満たしていないことです。Qualcommは、度々遅延が発生している45TOPSの性能を持つX Eliteチップを今年後半に市場に投入する予定です。 

ルウェレン氏は、マイクロソフトは新しいプラットフォームにおける顧客体験に重点を置いていると説明した。そのため、バッテリー寿命への影響を最小限に抑えるため、CopilotはGPUではなくNPUで実行されると主張している。 

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

「昨年、マイクロソフトと何度も議論を重ね、『なぜGPUで実行できないのか?』と尋ねました。彼らは、GPUとCPUを他の作業に使えるようにしたいと答えました。しかし同時に、バッテリー駆動時間も長くしたいとも考えていました。Copilotやそのワークロードの一部をGPUで実行すれば、バッテリー駆動時間に大きな影響が出るのは目に見えています」とルウェレン氏は説明した。 

「私たちは製品ロードマップを策定し、モバイル分野ではプレミアムとメインストリームのどこに位置づけているかを計画しています。そして、エントリーレベルにも踏み込んでいます。そのため、エントリーレベルに関する計画も立てています。デスクトップの観点から言えば、デスクトップ側、いわゆるAI PCの計画があります。さらに、次世代AI PC、40 TOPS要件にも対応しています。ロードマップには、様々なセグメントをどのようにカバーするかという様々なステップがすべて含まれています。」

IntelのLunar Lakeプロセッサは、GPUとNPUの両方で既存のMeteor Lakeチップの3倍のAI性能を備え、今年後半に市場投入される予定です。Intelはすでにパートナー企業にこれらのチップのサンプル出荷を開始しており、年内の発売に向けて準備を進めています。これらのチップは、QualcommのX EliteやAMDの次世代プロセッサと競合することになります。 

一方、Intelは自社のチップで利用可能なAI機能の数を拡大することに取り組んでいます。本日詳しくお伝えしたように、同社は今年、Meteor Lakeプロセッサで300もの新しいAI対応機能をサポートする予定です。 

これらの機能の多くは、Intelのシリコン向けに最適化されます。同社によると、同社が関与する開発者の約65%がIntelのOpenVinoを使用しているとのことです。つまり、これらのアプリケーションはIntelのNPU向けに最適化されているということです。残りの開発者は、ONNX、DirectML、WebNNを「組み合わせて」使用しており、Intelはどのようなフレームワークを使用している開発者とも喜んで協力すると述べています。 

しかし、OpenVinoとの連携は、Lunar Lake世代に向けてIntel独自のAI機能の展開を加速させる可能性を秘めています。IntelはAI PCアクセラレータープログラムを通じて、まさにこうしたメリットを実現したいと考えています。Intelによると、開発者コミュニティから大きな関心が寄せられており、特に2025年までに1億台のAI搭載PCを販売するという目標を掲げていることが、新しいAIソフトウェアにとって大きな市場機会となるとしています。

しかし、MicrosoftのCopilotはDirectMLを通じてあらゆるベンダーのNPU上で動作し、TOPSの増加は間違いなくパフォーマンスの向上につながります。つまり、今後数年間は、チップとマーケティングの両面でTOPSをめぐる争いが繰り広げられると予想されます。 

2024 年 3 月 27 日午前 6 時 50 分 (太平洋時間) 更新: Intel Meteor Lake および Ryzen Hawk Point NPU TOPS 仕様を修正しました。 

ポール・アルコーンはTom's Hardware USの編集長です。CPU、ストレージ、エンタープライズハードウェアに関するニュースやレビューも執筆しています。