AMD の Instinct MI300X が MLPerf ベンチマークでデビュー:NVIDIA H100 と競争力あるも課題は残る

BigGo Editorial Team
AMD の Instinct MI300X が MLPerf ベンチマークでデビュー:NVIDIA H100 と競争力あるも課題は残る

AMD がついに、待望の AI アクセラレーター Instinct MI300X のパフォーマンスベンチマークを公開し、競争の激しい AI ハードウェア市場への参入において重要な一歩を踏み出しました。結果は有望ですが、NVIDIA の優位性に挑戦する AMD にとって、強みと改善が必要な分野の両方を明らかにしています。

競争力のあるパフォーマンス、ただし注意点あり

MLPerf v4.1 AI ベンチマーク、特に Llama 2 70B モデルにおいて、MI300X は NVIDIA の H100 GPU とほぼ同等のパフォーマンスを示しました:

  • サーバーシナリオ:MI300X が H100 をわずかに上回る(21,028 対 20,605 トークン/秒)
  • オフラインシナリオ:MI300X が H100 をわずかに下回る(23,514 対 24,323 トークン/秒)

これらの結果は AMD の競争力を示していますが、重要な文脈があります。MI300X は理論上のパフォーマンスが大幅に高く(2.6 POPS 対 1.98 TFLOPS)、メモリ容量も2倍以上(192GB 対 80GB)です。これは、AMD がハードウェアの潜在能力を十分に活用できていない可能性を示唆しており、おそらくソフトウェアの最適化の課題によるものと考えられます。

AMD の MI300X と Nvidia の H100 プラットフォーム間のパフォーマンスベンチマークの比較
AMD の MI300X と Nvidia の H100 プラットフォーム間のパフォーマンスベンチマークの比較

ハードウェア仕様

MI300X は技術的に印象的です:

  • TSMC の5nmと6nmプロセスを使用した1,530億トランジスタ
  • 320コンピュートユニット(現在の構成では304がアクティブ)
  • 5.3 TB/秒の帯域幅を持つ192GB の HBM3 メモリ
  • 第4世代 Infinity Fabric インターコネクト

今後の展望:課題と機会

  1. ソフトウェアの最適化:AMD の ROCm ソフトウェアスタックは、NVIDIA の成熟した CUDA エコシステムとのギャップを埋めるために重要です。

  2. 今後の競合:NVIDIA の H200 と将来の B200 GPU は大幅なパフォーマンス向上を約束しており、AMD への圧力を維持します。

  3. メモリの優位性:MI300X の大容量メモリは、より大規模な AI モデルの処理において重要な差別化要因となる可能性があります。

  4. より広範なベンチマークが必要:AMD はこれまでに Llama 2 70B の結果のみを公開しています。MLPerf テストの全スイートにわたるパフォーマンスがより包括的な全体像を提供するでしょう。

  5. 次世代ハードウェア:AMD は今年後半に288GB の HBM3e メモリを搭載した MI325X の発売を計画しており、メモリ容量で NVIDIA を上回る可能性があります。

AMD が AI ハードウェアとソフトウェアスタックの改良を続ける中、AI アクセラレーター市場の競争は激化する見込みです。MI300X は有望ですが、AMD はハードウェアの優位性を十分に活用し、NVIDIA の確立された地位に挑戦するためにまだ課題があります。

AI コンピューティングに不可欠な高度な機能と性能を強調する AMD Instinct™ Platform のプロモーション概要
AI コンピューティングに不可欠な高度な機能と性能を強調する AMD Instinct™ Platform のプロモーション概要