従来のクローズドなエコシステムアプローチから大きく転換し、 Nvidia は台北で開催された Computex 2025 で NVLink Fusion プログラムを発表しました。このイニシアチブにより、パートナー企業は Nvidia の独自高速インターコネクト技術を非 Nvidia CPU やカスタム AI アクセラレータと統合できるようになり、エンタープライズ AI コンピューティングアーキテクチャの状況を変える可能性があります。
![]() |
---|
CEO の Jen-Hsun Huang が Computex 2025 で NVLink Fusion プログラムを紹介し、革新的なスパイン技術を披露している |
AI インフラストラクチャの障壁を打破
長年にわたり、 Nvidia の NVLink 技術は標準の PCIe インターフェースと比較して優れた帯域幅とレイテンシを提供し、AI ワークロードにおける同社の優位性の基盤となってきました。これまで、この独自のインターコネクトは主に Nvidia 自身のシリコンに制限されており、 IBM との初期の協力など限られた例外がありました。新しい NVLink Fusion プログラムは戦略的な転換点を示し、この技術を CPU 向けの Qualcomm や Fujitsu 、カスタム AI アクセラレータ向けの Marvell や MediaTek など、より広範なパートナーエコシステムに開放します。
スケールを再定義する技術的能力
NVLink Fusion の技術仕様は非常に印象的です。 Nvidia の CEO である Jen-Hsun Huang によると、単一の NVLink スパインは最大 130 TB/秒のデータ転送が可能であり、これはインターネット全体のトラフィック容量を超えると彼は主張しています。このような比較は議論の余地があるかもしれませんが(一部の情報源ではインターネットのピーク転送速度は 1,200 Tb/秒を超えるとされています)、この技術は間違いなく AI コンピューティングクラスタに革新的な帯域幅を提供します。このシステムは単一のスパインアーキテクチャを通じて最大 72 個の GPU を接続できる大規模なスケーラビリティを実現します。
NVLink Fusionの主要パートナー:
- CPUパートナー: Qualcomm 、 Fujitsu
- シリコン/アクセラレータパートナー: Marvell 、 MediaTek 、 Alchip
- インターコネクトパートナー: Astera Labs
- 設計ツールプロバイダー: Cadence 、 Synopsys
NVLinkの技術仕様:
- 単一スパインの転送速度:最大130 TB/秒
- スパインあたりの最大GPU数:72
- PCIeと比較した帯域幅の優位性:最大14倍
エコシステムを拡大する戦略的パートナーシップ
NVLink Fusion エコシステムはすでに重要なパートナーを惹きつけています。最近サーバー CPU 市場への参入計画を確認した Qualcomm は、 Nvidia の主要な AI インフラストラクチャとの互換性を確保できるようになりました。 Fujitsu は、メモリ上に革新的な 3D スタックコアを特徴とする、近日発売予定の 144 コアの Monaka CPU にこの技術を統合します。 Marvell 、 MediaTek 、 Alchip などのシリコンパートナーはシステムと互換性のあるカスタム AI アクセラレータを開発し、 Astera Labs は特殊なインターコネクティビティコンポーネントを提供するために参加します。設計ツールプロバイダーの Cadence と Synopsys が必要なソフトウェアと IP リソースでエコシステムを完成させます。
![]() |
---|
サードパーティーのカスタム CPU とアクセラレータが Nvidia の NVLink Fusion アーキテクチャに統合される様子を示す図 |
チップレットアーキテクチャによる実装
NVLink Fusion の技術的実装には、コンピュートパッケージに隣接するチップレットに機能を統合することが含まれます。このアプローチにより、パートナーは NVLink 互換性を追加しながら、コア CPU やアクセラレータの設計を維持することができます。 Nvidia はまた、運用とオーケストレーションを統一する新しい Mission Control ソフトウェアをリリースし、システムレベルの検証とワークロード管理を合理化して、これらの複雑な統合システムの市場投入までの時間を短縮します。
実装方法:
- コンピュートパッケージに隣接して配置されたチップレットによる統合
- ラックスケールアーキテクチャと互換性あり
- オーケストレーションのための Nvidia Mission Control ソフトウェアによるサポート
業界の競争と標準
NVLink Fusion パートナーシップの名簿に著しく欠けているのは、 Nvidia の主要な競合企業である AMD 、 Intel 、 Broadcom です。これらの企業は代わりに Ultra Accelerator Link(UALink)コンソーシアムに参加し、 Nvidia の独自技術に代わるオープンな業界標準インターコネクトの作成を目指しています。この並行開発は、急速に進化する AI ハードウェア環境における独自エコシステムとオープン標準の間の継続的な緊張を浮き彫りにしています。
エンタープライズ AI 展開への影響
NVLink 技術の開放は、より柔軟な AI インフラストラクチャオプションに対する顧客の要求に対応しながら、 Nvidia が影響力を拡大するための戦略的な動きを表しています。非 Nvidia CPU との統合を可能にすることで、同社は特定のワークロードや主権要件に対して代替 CPU アーキテクチャを好む可能性のある組織に対応しながら、 GPU の優位性を維持します。このアプローチにより、 Nvidia はコアの強みである AI アクセラレーションを活かしながら、潜在的に対象市場を拡大することができます。
将来の展望
NVLink Fusion は主に消費者向けコンピューティングではなく、データセンターやエンタープライズアプリケーションを対象としていますが、その開発は AI コンピューティングインフラストラクチャがどのように進化するかについての重要な変化を示しています。この技術は大規模な異種コンピューティングの新たな可能性を実現し、業界全体のシステムアーキテクチャへの将来的なアプローチに影響を与える可能性があります。 AI ワークロードが複雑さとスケールを増すにつれて、多様なコンピューティングリソースを効率的に接続する能力がパフォーマンスとエネルギー効率にとってますます重要になっています。