AIコンピューティングの競争はさらに加速し続けており、 Nvidia は最も要求の厳しい人工知能ワークロードを駆動するために設計された次世代ハードウェアを発表しました。すでに印象的な Blackwell アーキテクチャをベースに、同社は Blackwell Ultra GB300 という大幅なアップグレードを発表し、パフォーマンスの大幅な向上と、ますます複雑化するAIモデルを処理するためのメモリ容量の拡大を約束しています。
![]() |
---|
Nvidia Blackwell Ultra GB300 はAIコンピューティング技術における重要なアップグレードを表しています |
Blackwell Ultra GB300:AIコンピューティングの性能飛躍
Nvidia が新たに発表した Blackwell Ultra GB300 は、同社のAIコンピューティングプラットフォームの大幅な進化を表しています。2025年後半に出荷予定の GB300 は、オリジナルの Blackwell と同じチップあたり20ペタフロップスのAIパフォーマンスを維持しながら、HBM3eメモリの容量を標準バージョンの192GBから288GBに大幅に増加させています。このメモリの50%増加により、より大規模なAIモデルとより複雑なワークロードの処理が可能になります。GB300 NVL72ラックスケールソリューションは、72個の Blackwell Ultra GPUを36個の Arm Neoverse ベースの Grace CPUと接続し、1.1エクサフロップスのFP4計算性能を提供する単一の巨大なGPUとして機能します。
Nvidia Blackwell Ultra(GB300)の主な仕様:
- AI性能:チップあたり20ペタフロップス(標準 Blackwell と同等)
- メモリ:288GB HBM3e(192GBから50%増加)
- GB300 NVL72ラックの性能:FP4計算で1.1エクサフロップス
- GB300 NVL72メモリ:20TB HBMメモリ、40TB「高速メモリ」
- NVLinkの帯域幅:130TB/秒
- ネットワーキング:14.4 TB/秒
- リリース時期:2025年後半
強化されたAI推論能力
Blackwell Ultra における最も重要な進歩の一つは、AI推論タスクを加速する能力です。 Nvidia によると、GB300 NVL72構成では、DeepSeek-R1 671Bのインタラクティブなコピーを実行し、前世代の H100 が必要とする1.5分と比較して、わずか10秒で回答を提供できるとのことです。この劇的な改善は、2022年のチップの10倍にあたる毎秒1,000トークンを処理する能力に起因しています。この強化により、AIモデルは異なる解決策のパスを探索し、複雑なリクエストを複数のステップに分解することができ、より質の高い応答が得られます。
性能比較:
- Blackwell Ultra 対 H100: 大規模言語モデルの推論速度が11倍高速
- Blackwell Ultra 対 H100: 計算能力が7倍
- Blackwell Ultra 対 H100: メモリ容量が4倍
- Blackwell Ultra のトークン処理: 1,000トークン/秒(2022年のチップより10倍高速)
- Rubin Ultra ラック対 Blackwell Ultra ラック: 性能が14倍向上
DGX Stationによるアクセス拡大
これまでのハイエンドAIハードウェアリリースとは異なる興味深い展開として、 Nvidia は単一の Blackwell Ultra チップを DGX Station と呼ばれるデスクトップ形式で提供する予定です。この強力なワークステーションには、単一の GB300 Blackwell Ultra GPU、784GBの統合システムメモリ、および内蔵の800Gbps Nvidia ネットワーキングが搭載されています。 Asus 、 Dell 、 HP 、 Boxx 、 Lambda 、および Supermicro を含む主要メーカーがこのデスクトップシステムのバージョンを提供し、これまでラックスケールだったAIコンピューティング能力を個々のワークステーションにもたらします。
将来のロードマップ:Vera Rubinとその先
将来を見据えて、 Nvidia は2026年後半に予定されている次期 Vera Rubin アーキテクチャも発表しました。これはチップあたり50ペタフロップスのFP4パフォーマンスを提供し、 Blackwell Ultra の2.5倍の性能を実現します。これに続いて2027年後半には Rubin Ultra が登場し、事実上2つの Rubin GPUを接続して100ペタフロップスのFP4パフォーマンスと1TBの約4倍のメモリを提供します。 Rubin Ultra の完全な NVL576 ラックは、FP4推論で15エクサフロップス、FP8トレーニングで5エクサフロップスを提供すると予想され、今年の Blackwell Ultra ラックと比較して14倍のパフォーマンス向上を表しています。
Nvidia GPUロードマップ:
- Blackwell Ultra (GB300): 2025年後半、288GB HBM3e
- Vera Rubin: 2026年後半、50ペタフロップスFP4
- Rubin Ultra: 2027年後半、100ペタフロップスFP4、1TBメモリ
- Feynman: 2028年
市場への影響と業界の需要
Nvidia の CEO である Jensen Huang は発表の中で、AIコンピューティングの需要に追いつくためには、昨年の今頃に必要だと思っていた量の100倍が業界に必要だと強調しました。この発言は、 Nvidia がすでに110億米ドル相当の Blackwell ハードウェアを出荷し、上位4社の購入者だけで2025年にこれまでに180万個の Blackwell チップを購入したことを明らかにしたことに続いています。これらの数字は、AIコンピューティング要件の爆発的な成長と、必要なハードウェアを供給する Nvidia の支配的な地位を強調しています。
さらに先を見据えて
Vera Rubin を超えて、 Nvidia は2028年のアーキテクチャが Feynman と名付けられることを発表しました。おそらく有名な理論物理学者 Richard Feynman にちなんだものです。この継続的なロードマップは、 Nvidia が予見可能な将来においてAIコンピューティングハードウェアにおけるリーダーシップの地位を維持することへのコミットメントを示しており、各世代は人工知能ワークロードの急速に成長する需要を満たすための大幅なパフォーマンス向上を約束しています。