
AMDはTom's Hardwareに対し、「コンシューマー向けAIパフォーマンス」に関する知見を共有し、AMD Ryzen 7 7840U(15W)とIntel Core Ultra 7 155H(28W)の対決を特集しました。Llama 2とMistral Instruct 7Bを用いた大規模言語モデル(LLM)パフォーマンステストでは、レッドチームのソリューションがはるかに高速で、消費電力が少なく、安価であることがわかりました。チップメーカーはベンチマークを厳選すると予想されますが、これらの結果は、IntelのAIパフォーマンスがAMDがここで実証するローカルAI処理能力に全く及ばないことを示しています。
AMDは比較テストのために、競合するラップトップにLM Studioをインストールしました。この作業はわずか数分で完了するとAMDは述べています。LM Studioをインストールすると、様々なLLMをローカルで実行でき、プライバシーを最大限に確保し、サブスクリプション料金は不要で、インターネット接続も不要です。冒頭で述べたように、Llama 2とMistral Instruct 7Bは様々なタスクに活用されました。具体的には、AMDはこれらのAIに複数回ストーリーを書かせたり、Unityでバウンドするボールのデモを作成させたり、詩を書かせたりしました。参考までに、Llama 2はMeta社の最新鋭LLMであり、Mistral Instruct 7Bは元Meta社とDeepMind社の開発者によって開発された73億個のパラメータを持つLLMです。
画像
1
の
3

AMDはRyzenの優れた性能を示すパフォーマンス指標として、「最初のトークンまでの時間」の測定などを選択しました。これは、プロンプトを入力してEnterキーを押してから最初の結果が表示されるまでの時間をグラフ化したものです。もう一つの重要なパフォーマンス指標は「1秒あたりのトークン数」で、これはLLMの応答が1行ずつ返される時間です。
ローカルAIアクセラレーションに適した最新のRyzenチップの特性について改めて触れると、AMDはNPU、RDNA 3 GPU、Zen 4 CPUの3種類のコアを連携して使用できると述べています。私たちが視聴したデモでは、AMD幹部がZen 4 CPUコアに組み込まれたAVX512とVNNIアクセラレーションが、チャートに見られる優れた結果の背後にあると述べていました。PhoenixとMeteor Lakeプロセッサでは、より強力なNPUについて説明されることを期待していたので、これは興味深い点です。
AMDは、LM Studioと各種LLMをローカルマシンで実行する方法に関するブログを公開しました。このチュートリアルでは、「AMD Ryzen AI PC」またはRadeon RX 7000以降のGPUを搭載したPCでの使用開始手順を説明しています。
Intelは、Meteor LakeファミリーのAI性能が比較的低いことを十分に認識しています。この象徴的なCPUメーカーは、Arrow LakeとLunar Lakeの両製品において、GPUとNPUのAI性能が3倍向上すると既に公式に発表しています。Intelの次世代ノートPCおよびデスクトップ向けプロセッサは、今年後半に発売予定です。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
マーク・タイソンはトムズ・ハードウェアのニュース編集者です。ビジネスや半導体設計から、理性の限界に迫る製品まで、PCテクノロジーのあらゆる分野を網羅的にカバーすることに情熱を注いでいます。