82
Windows Copilot は将来のリリースで GPU サポートを追加します — Nvidia が高性能 GPU の利点について詳しく説明します…
Copilot+ RTXラップトップが登場、さらにCopilotはGPUで動作する
(画像提供:Nvidia)

MicrosoftがQualcomm Snapdragon X Eliteプロセッサを搭載した最初のCopilot+ラップトップを発表した際、AMDとIntelへの侮辱にとどまらず、NVIDIAも冷遇されました。NVIDIAは現在、少なくともハードウェアの面ではAI分野における最大手であるため、多くの人がなぜCopilotが強力なGPUでも動作しないのか疑問に思いました。しかし、もう疑問に思う必要はありません。Computex 2024でNVIDIAがMicrosoftと提携し、今年後半にCopilotランタイムをGPU対応にすることを発表したのです。

実際、NvidiaからはAI関連のニュースが山ほど届いています。中には、1年以上もの間、様々な改良が重ねられてきた最新のACEデモ(Avatar Cloud Engine)のように、以前から耳にしていたものの最新情報も含まれています。Nvidiaはまた、近い将来、RTX 40シリーズGPUを搭載したWindows Copilot+対応ノートPCが登場することを発表していました。皮肉なことに、このノートPCはAMDとIntelのライバルチップを搭載しています。しかし、ArmプロセッサとNvidia GPUを搭載したWindows AIノートPCが来年中に発売される可能性はまだ残っています。

画像

1

5

Copilot+ RTXラップトップが登場、さらにCopilotはGPUで動作する
(画像提供:Nvidia)

Nvidia Computex 2024 プレゼンテーション

(画像提供:Nvidia)

Nvidiaの立場は理解できます。NPU(ニューラル・プロセッシング・ユニット)上で10~45テラオプス(TOPS)のINT8演算性能を提供する「AI PC」が登場しています。しかし、NvidiaのRTX 40シリーズGPUは、既に2年近くその性能をはるかに上回っています。また、前世代のRTX 30シリーズGPUも十分なTOPSを提供していました(ただし、Nvidiaは現在、より将来的な視点を重視しています)。

現在の40シリーズのAI TOPSは、ノートPC向けGPUのRTX 4050で約200 TOPS、デスクトップ向けGPUのRTX 4090で1300 TOPS以上と、その中間の幅広い範囲をカバーしています。参考までに、RTX 30シリーズは約23 TOPS(モバイル向けRTX 3050のベースクロック時)から、RTX 3090 Tiで最大320 TOPSまでの範囲で、スパース演算ではその2倍の数値になります。2018年に発売されたRTX 20シリーズでさえ、数百TOPSの演算性能を実現しており、ノートPC向けGPUのRTX 2060は59 TOPS、RTX 2080 Tiは215 TOPSとなっています。

つまり、Nvidia RTX GPUをAIに使用した場合、少なくとも過去6年間はCopilot+レベルを超えるコンピューティング性能を実現できていました。ただ、ゲームでDLSSを実行したり、ビデオとオーディオのクリーンアップにNvidia Broadcastを使用したりした程度で、実際にはあまり活用していませんでした。Nvidiaは他にも多くのAI関連技術を現在も開発中です。

Nvidia Computex 2024 プレゼンテーション

(画像提供:Nvidia)

画像

1

6

Nvidia Computex 2024 プレゼンテーション
(画像提供:Nvidia)

本日発表された新しいNVIDIA RTX AI Toolkitは、AIモデルのチューニングとカスタマイズから実装まで、開発者を支援するツールキットです。このツールキットは、ゲームやその他のアプリケーションにおけるNPCの強化にも活用できる可能性があります。前述のACEデモでは、昨年のComputexで初めて公開された会話型NPCデモがその好例です。このツールキットはその後も幾度か改良を重ね、複数のNPCに対応しています。NVIDIAは今後もさらなる進化を目指しています。

一例として、70億パラメータのLLMを用いた汎用LLMが挙げられます。NPCを動かすLLMとのインタラクションでは、いつものようにごく一般的な応答が得られました。また、このモデルの実行にはRTX 4090(VRAM 17GB)が必要でしたが、1秒あたりわずか48トークンしか生成できませんでした。Nvidiaによると、RTX AI Toolkitを使用して最適化されたモデルを作成することで、開発者はゲームの世界にはるかに関連性の高い調整された応答を得ることができ、必要なVRAMはわずか5GBで、1秒あたり187トークンを生成できます。これは、メモリ要件が3分の1で、ほぼ4倍の速度です。さらに重要なのは、調整されたモデルが、VRAMが6GBしかないRTX 4050ノートPCのGPUでも実行できることです。

Nvidiaは、Project G-Assistを通じて、これらすべての相互に関連するAI技術がどのように連携し、ゲーム情報への容易なアクセスを実現するかを示す技術デモも披露しました。これについては別途詳しく取り上げています。

ご想像のとおり、NVIDIAはAIについて他にも多くのことを語りました。RTX TensorRTアクセラレーションは、人気の高いStable Diffusion画像生成ツールであるComfyUIで利用できるようになりました。ComfyUIの統合はRTX Remixにも導入される予定で、モッダーはこれを使って古いゲームのテクスチャを素早く強化できるようになります。Computexのプレゼンテーション全文は視聴できます。また、参考までにスライド資料全文を下記に掲載しています。

画像

1

34

Nvidia Computex 2024 プレゼンテーション
(画像提供:Nvidia)

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

ジャレッド・ウォルトンは、Tom's Hardwareのシニアエディターで、GPU全般を専門としています。2004年からテクノロジージャーナリストとして活躍し、AnandTech、Maximum PC、PC Gamerなどで執筆活動を行っています。初代S3 Virgeの「3Dデセラレータ」から最新のGPUまで、ジャレッドは最新のグラフィックストレンドを常に把握しており、ゲームパフォーマンスに関する質問は彼にお任せください。