51
AMD が Nvidia に反論、Radeon と Ryzen でローカル AI チャットボットを実行する方法を詳細に説明 – … の使用を推奨
AMD
(画像提供:AMD)

NvidiaとIntelが最近、ローカルで動作するAIチャットボットを発表したのを受けて、AMDもその流れに乗り遅れまいと、RyzenおよびRadeonプロセッサユーザー向けに独自のソリューションを公開しました。ユーザーは5~6ステップで、クラウドではなくローカルハードウェア上で動作するAIチャットボットとのやり取りを開始できます。コーディング経験は必要ありません。

AMDのガイドでは、Ryzen AI搭載PCチップまたはRX 7000シリーズGPUのいずれかを搭載していることが求められています。現在、Ryzen AIは、Radeon 780Mまたは760M統合グラフィックスを搭載したPhoenixおよびHawk PointベースのハイエンドRyzen APUでのみ利用可能です。つまり、Ryzen 5 8600Gはサポートされているものの、Ryzen 5 8500Gは動作しない可能性があります…ただし、アプリケーション自体には要件として「AVX2対応CPU」のみが記載されているため、幅広いプロセッサで(おそらく非常に低速ではありますが)動作するはずです。

ユーザーはLM Studioをダウンロードしてインストールする必要があります。RX 7000シリーズユーザー向けにROCmバージョンも用意されています。標準パッケージはIntel CPUとNvidia GPUでも動作することに注意してください。LM Studioをインストールして起動したら、チャットに最適化されたLlama 2 7Bなど、必要なLLMを検索するだけです。AMDは、「Q4 K M」ラベルの付いたモデルの使用を推奨しています。これは、特定の量子化レベル(4ビット)やその他の特性を示しています。Ryzen CPUユーザーはこの時点でボットと自由にチャットできますが(NPUが実際に使用されているかどうかは不明ですが、おそらく使用されていないでしょう)、RX 7000シリーズGPUユーザーは、右側のサイドパネルを開いてGPUオフロードを手動で有効にし、オフロードスライダーを「最大」までドラッグする必要があります。

AMDのチュートリアルは、AMD、Intel、Nvidiaのすべてのコンシューマー向けハードウェアでAIチャットボットを実行するための、使いやすい公式の方法が少なくとも1つ存在することを意味します。当然のことながら、Nvidiaが最初にChat with RTXアプリをリリースしました。このアプリは当然のことながらNvidia製GPUでのみ動作します。Chat with RTXは、ドキュメント、動画、その他のファイルを分析できるため、これらのソリューションの中で最も充実した機能と言えるでしょう。さらに、このNvidiaチャットボットのサポートは30シリーズまで遡り、20シリーズへの対応も検討されている可能性があります。

一方、IntelのAI CPU/NPUおよびGPUソリューションは、まだ開発段階です。ローカルAIチャットボットをアプリで紹介するのではなく、IntelはPythonを使ってコーディングする方法を実演しました。ユーザーが記述するコードはそれほど長くはありませんが、コーディング自体が多くの潜在的なユーザーにとって障壁となるでしょう。さらに、チャットの応答はコマンドラインに表示されるため、「最先端のAI」というイメージは薄れています。LM Studioを試すこともできますが、Intel GPUやNPUはまだサポートされていないようで、CPUのみを使用します。

AMDはNVIDIAのような独自のAIチャットボットアプリは提供していませんが、少なくともROCm GPUハードウェアのサポートがあることから、機能面ではIntelよりも進んでいるように見えます。AMDの次のステップは、独自のChat with RTXを開発するか、少なくともLM Studioの開発者と協力してAMDハードウェア向けの機能を強化することでしょう。Radeon AdrenalinドライバースイートにAI機能が統合される可能性もあるでしょう。AMDはドライバーレベルのAI最適化を行っており、このドライバースイートにはFluid Motion Framesなどの新機能が頻繁に追加されています。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

マシュー・コナッツァーは、Tom's Hardware USのフリーランスライターです。CPU、GPU、SSD、そしてコンピューター全般に関する記事を執筆しています。