AI革命の到来が迫っていますが、過去のコンピューティングの変遷とは異なり、私たちのほとんどはクラウド上で最先端のAIモデルを操作しています。ChatGPT、Claude、Geminiといった主要サービスは、いずれもクラウドベースのままです。しかしながら、プライバシー、研究、制御といった理由から、ローカルで実行されるAIモデルは依然として関心を集めており、GPUやNPUを搭載したクライアントシステムのAIパフォーマンスを信頼性と中立性を持って測定できることが重要です。
クライアントAIは、ハードウェアベンダーとソフトウェアベンダーがローカル実行に最適なワークロードの種類と、それらを実行するための最適なコンピューティングリソースの定義に取り組んでいるため、依然として非常に流動的な領域です。この急速に変化する環境に対応できるよう、MLCommonsコンソーシアムとそのMLPerfクライアントワーキンググループは、主要なハードウェアベンダーおよびソフトウェアベンダーと共同で開発したクライアントベンチマークを維持しています。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
- ONNX ランタイム GenAI と Ryzen AI SDK による AMD NPU と GPU のハイブリッド サポート
- ONNX ランタイム GenAI-DirectML による AMD、Intel、NVIDIA GPU サポート
- OpenVINO経由のIntel NPUおよびGPUサポート
- Qualcomm Genie と QAIRT SDK による Qualcomm Technologies NPU と CPU のハイブリッド サポート
- MLX経由のApple Mac GPUサポート
ベンチマークのバージョン 1.0 では、次の実験的なハードウェア実行パスもサポートされています。
- Microsoft Windows MLとOpenVINO実行プロバイダーによるIntel NPUおよびGPUのサポート
- Llama.cpp-CUDA 経由の NVIDIA GPU サポート
- Llama.cpp-Metal 経由の Apple Mac GPU サポート
最後になりましたが、MLPerf Client 1.0 には、ユーザーがハードウェアで実行できるベンチマークの全範囲を理解し、簡単に選択できるグラフィカル ユーザー インターフェイスが提供されるようになりました。

GUI バージョンでは、システム上のさまざまなハードウェア リソースをリアルタイムで監視できるため、選択した実行パスが期待どおりの GPU または NPU を実行しているかどうかを一目で確認できます。
MLPerf クライアントの過去のバージョンはコマンドラインのみのツールであったため、この新しいユーザー インターフェイスにより、GPU または NPU (あるいはその両方) で AI をテストしたい一般ユーザーと、さまざまなハードウェアおよびソフトウェア構成にわたって結果を収集して比較する必要があるプロのハードウェア テスターの両方にとって、ベンチマークの魅力が広がるはずです。
MLPerf Client 1.0は、GitHubから無料でダウンロードできます。幅広いAIワークロードにおけるシステムのパフォーマンスを把握したい方は、ぜひお試しください。私たちはすでにバージョン1.0をある程度試用しており、今後も幅広いハードウェアにおけるAIパフォーマンスの調査を続けていく予定です。
Google ニュースで Tom's Hardware をフォローすると 、最新のニュース、分析、レビューをフィードで受け取ることができます。「フォロー」ボタンを忘れずにクリックしてください。
Tom's Hardwareのグラフィックス担当シニアアナリスト、Jeff Kampmanは、GPU、ゲームパフォーマンスなど、あらゆる分野を網羅しています。統合型グラフィックスプロセッサからディスクリートグラフィックスカード、そしてAIの未来を支えるハイパースケールシステムまで、GPU搭載のものなら何でもJeffが担当します。