Dell は AI インフラストラクチャ能力を大幅に拡張し、エンタープライズ AI ハードウェアソリューションの最前線に位置づけています。同社の最新発表は、AI Factory エコシステムの大きな進歩を示すもので、複雑化する AI ワークロードを処理するために設計された新しいサーバー製品を提供し、顧客に前例のない展開オプションの柔軟性を与えています。
![]() |
---|
Dell Technologies が Dell Technologies World イベントで最先端の AI ハードウェアソリューションを展示 |
Dell の AI Factory の進化
Dell Technologies は、 NVIDIA の最先端 Blackwell Ultra GPU を搭載した新しい PowerEdge XE9780 および XE9785 サーバーを中心に、AI サーバーポートフォリオの大幅な拡張を発表しました。この発表は、Dell の AI 戦略における重要な節目を表しており、2年前に Project Helix を通じて確立された基盤の上に構築されています。Project Helix は、 NVIDIA が広くこの用語を採用する前に、エンタープライズ AI ファクトリーのコンセプトを導入した Dell と NVIDIA の初期コラボレーションでした。新しいサーバーは、AI ワークロードをローカルで処理したいという企業からの需要の高まりに対応するよう設計されており、特に企業ファイアウォールの背後に残る機密性の高い貴重なデータに対応します。
![]() |
---|
Dell の AI Factory イニシアチブは、AI 技術への大規模な投資と革新を強調しています |
Blackwell Ultra の統合と構成
PowerEdge XE9780 および XE9785 サーバーは、空冷式と液冷式の両バリアント(XE9780L および XE9785L)で提供され、液冷モデルはラックあたり印象的な 256 個の NVIDIA Blackwell Ultra GPU をサポートします。空冷バージョンは最大 192 GPU をサポートし、既存の企業データセンターにより簡単に統合できるよう設計されています。これらのサーバーは NVIDIA の HGX B300 アーキテクチャを活用し、前世代製品と比較して大規模言語モデル(LLM)のトレーニングを最大4倍速く実行でき、世代間の大幅なパフォーマンス向上を示しています。
Dell PowerEdge サーバー構成と NVIDIA Blackwell Ultra
モデル | 冷却タイプ | 最大GPU対応数 |
---|---|---|
PowerEdge XE9780 | 空冷式 | 最大192基の Blackwell Ultra GPU |
PowerEdge XE9785 | 空冷式 | 最大192基の Blackwell Ultra GPU |
PowerEdge XE9780L | 液冷式 | ラックあたり最大256基の Blackwell Ultra GPU |
PowerEdge XE9785L | 液冷式 | ラックあたり最大256基の Blackwell Ultra GPU |
NVIDIA を超えた拡張
NVIDIA とのパートナーシップが Dell の AI 戦略の中心であり続ける一方、同社は製品ライン全体でシリコンの多様性を受け入れています。Dell Technologies World では、同社は AMD の Instinct MI350 GPU を搭載した PowerEdge XE9785 サーバーを発表しました。これは NVIDIA ベースのシステムに代わる実行可能で、潜在的により電力効率の高い選択肢を提供します。さらに、 Dell は Intel の Gaudi 3 AI アクセラレーターの最初の主流デプロイメントの一つとして、8つの Gaudi 3 チップを搭載した PowerEdge XE9680 サーバーを発表しました。このマルチベンダーアプローチにより、企業は特定の要件や既存のソフトウェアエコシステムに基づいてハードウェアを柔軟に選択できるようになります。
Dell AIハードウェアの追加オプション
- AMD Instinct MI350 GPUを搭載した PowerEdge XE9785 サーバー
- Intel Gaudi 3 AIアクセラレーター(サーバーあたり8チップ)を搭載した PowerEdge XE9680 サーバー
- NVIDIA RTX Pro 6000 Blackwell Server Editionを搭載した PowerEdge XE7745(2025年7月発売予定)
- Qualcomm A100 ディスクリートNPUを搭載した Dell Pro Max Plus ポータブルワークステーション
未来に対応したハードウェアポートフォリオ
将来を見据え、 Dell は NVIDIA の Vera CPU のサポートと NVIDIA の Rubin GPU を搭載した PowerEdge 設計の開発を発表し、包括的な AI ハードウェアポートフォリオをさらに拡大しています。また、同社は 2025 年 7 月から NVIDIA RTX Pro 6000 Blackwell Server Edition GPU を搭載する PowerEdge XE7745 サーバーを導入する予定です。このプラットフォームは、ロボティクス、デジタルツイン、マルチモーダル AI アプリケーションなどの物理的およびエージェント AI ユースケース向けに設計されており、4U シャーシで最大 8 GPU をサポートします。
AI ワークロード向けソフトウェア強化
ハードウェアだけでなく、 Dell は AI Data Platform 傘下に新しいソフトウェア機能を導入しました。Project Lightning は、大規模 AI モデルの最大の課題の一つである高速データアクセスとメモリ読み込みに対応するもので、 Dell が同等のソリューションの 2 倍のパフォーマンスを提供すると主張する並列ファイルシステムを実装しています。同社はまた Data Lakehouse を強化し、多くの AI アプリケーションが大規模データセットをより効率的にアクセスおよび管理するために使用する構造を改善しました。
性能向上
- 8台の NVIDIA HGX B300 を搭載したシステムは、前世代と比較して4倍高速なLLMトレーニングを実現
- NVIDIA GB300 NVL72 を搭載した PowerEdge XE9712 は、AI推論出力が50倍向上し、スループットが5倍改善
- Project Lightning 並列ファイルシステムは、AIデータアクセスにおいて同等のソリューションと比較して2倍の性能を提供
Dell の PC 部門のイノベーション
Dell の PC 部門からの興味深い進展として、同社は Dell Pro Max Plus ポータブルワークステーションを発表しました。これはモバイル PC に初めて専用 NPU(Neural Processing Unit)を使用したもので、具体的には Qualcomm A100 を搭載しています。このデバイスは、エッジでカスタマイズされた推論アプリケーションを実行する組織や、 Qualcomm の NPU 設計を活用したい AI モデル開発者を対象としています。A100 の大容量オンボードメモリキャッシュにより、現在利用可能な最も高度な Copilot+ PC の能力をはるかに超える、1000 億パラメータを超えるモデルの使用が可能になります。
市場ポジショニングと戦略
Dell の AI ハードウェアに対する包括的なアプローチは、クラウドとオンプレミスコンピューティングが効果的に共存できるという認識の高まりを反映しています。同社は、パブリッククラウドとプライベートクラウドの両方を活用する分散ハイブリッド AI アプリケーションをサポートする態勢を整え、そのような構成が急速に主流になると予測しています。Dell の CEO である Michael Dell が述べたように、「世界中の何百万もの顧客に AI をもたらすことが私たちの使命です。私たちの仕事は AI をより身近なものにすることです。」この顧客中心の戦略と Dell の幅広いハードウェアポートフォリオにより、同社はさまざまな業界の企業の多様な AI インフラストラクチャニーズに応える強力な立場に位置しています。