AMD は最新の Strix Point APU において、ローカル大規模言語モデル(LLM)アプリケーションで顕著な性能指標を示し、AIプロセッシング能力の大幅な進歩を実証しました。同社の最近の試験結果は、コンシューマーハードウェアにおけるAI処理の未来について説得力のある成果を示しています。
LLM処理における画期的な性能
AMD のフラッグシップ製品である Ryzen AI 9 HX 375 プロセッサーは、 Intel の Core Ultra 7 258V と比較して最大27%高速なトークン生成を達成し、LLMアプリケーションにおいて卓越した性能を示しました。 LM Studio を使用して実施されたテストでは、 Meta の Llama 3.2 、 Microsoft Phi 3.1 、 Google の Gemma 2 、 Mistral の Nemo モデルなど、様々な人気LLMモデルを優れた効率で処理できることが実証されました。
高度なGPUアクセラレーションとメモリ管理
Strix Point APU は、 Vulkan API を活用した高度なGPUアクセラレーション機能を搭載しており、特に効果的であることが証明されています。GPUアクセラレーションを有効にすると、 HX 375 は非アクセラレーション時と比較して最大20%高速なトークン/秒の性能を発揮します。可変グラフィックスメモリ(VGM)技術の実装により、動的なメモリ再割り当てが可能となり、GPUアクセラレーションと組み合わせることで驚異的な60%の性能向上を実現しています。
包括的なテスト環境
AMD のテスト方法では、llama.cpp フレームワークをベースにした使いやすいデスクトップアプリケーションである LM Studio を採用しました。AVX2命令によるx86 CPU向けの最適化とGPUアクセラレーション機能を組み合わせることで、実際のAI性能を評価するための堅牢なプラットフォームを提供しています。特筆すべきは、 Ryzen AI 9 HX 375 が Intel システムの8533 MT/sと比較して遅いRAM(7500 MT/s)で動作していたにもかかわらず、これらの結果を達成したことです。
消費者向けAIへの広範な影響
これらの性能向上の意義は、単なる数値以上のものであり、成長する消費者向けAI市場における AMD の戦略的なポジショニングを示しています。フラッグシップモデルではなく Intel の中級プロセッサーとの比較であることから、絶対的な性能リーダーシップについては若干の疑問が残るものの、この結果は消費者がアクセス可能なAI処理能力の向上に対する AMD の強いコミットメントを示しています。
今後の展望
AI ワークロードが消費者向けアプリケーションでますます普及する中、 AMD が示したLLM処理における性能優位性は、将来のハードウェア開発にとって有望な方向性を示唆しています。NPU機能と効率的なGPUアクセラレーションの組み合わせは、モバイルコンピューティングプラットフォームの新しい基準を確立する可能性のある成熟したアプローチを示しています。