NVIDIA Vera Rubinプラットフォームがエージェント型AIの未来を拓く:7つの新チップでAIインフラを革新

テクノロジー

NVIDIA Vera Rubinプラットフォーム:エージェント型AI時代の幕開け

2026年3月16日、NVIDIAはGTCにおいて、次世代エージェント型AIの実現に向けた画期的なプラットフォーム「NVIDIA Vera Rubin」を発表しました。このプラットフォームは、AIファクトリーを拡張するための7つの新しいチップと、それらを統合する5つのラックから構成されており、AIのあらゆるフェーズにおいて最適化されたインフラを提供します。NVIDIAの創業者兼CEOであるジェンスン・フアン氏は、「Vera Rubinは世代を超えた飛躍であり、エージェント型AIの転換期をもたらす」と述べています。

電子部品が並ぶ画像

Vera Rubinプラットフォームを構成する主要技術

NVIDIA Vera Rubinプラットフォームは、以下の主要なチップとラックシステムによって、AIワークロードの性能と効率を劇的に向上させます。

1. NVIDIA Vera Rubin NVL72 ラック

このラックは、72基のRubin GPUと36基のVera CPUをNVLink 6で接続し、ConnectX-9 SuperNICとBlueField-4 DPUを統合しています。NVIDIA Blackwellプラットフォームと比較して、大規模なエキスパート混合モデルのトレーニングに必要なGPU数を4分の1に削減し、トークンあたりのコストを10分の1に抑え、ワットあたり最大10倍の推論スループットを達成します。これは、世界中のハイパースケールAIファクトリー向けに設計されており、NVIDIA Quantum-X800 InfiniBandおよびSpectrum-X Ethernetでシームレスに拡張可能です。

2. NVIDIA Vera CPU ラック

強化学習やエージェント型AIワークロードは、GPUシステムで生成された結果を検証するために、多数のCPUベース環境を必要とします。Vera CPUラックは、NVIDIA MGX上に構築された高密度の液冷インフラを提供し、最大256基のVera CPUを統合します。これにより、大規模なエージェント型AIを実現するための拡張性とエネルギー効率に優れた処理能力を提供します。Spectrum-X Ethernetネットワーキングと統合され、従来のCPUと比較して2倍の効率と50%の高速化を実現します。

3. NVIDIA Groq 3 LPX ラック

NVIDIA Groq 3 LPXは、アクセラレーテッドコンピューティングにおける重要なマイルストーンです。エージェント型システムの低レイテンシかつ大規模コンテキストの要求に合わせて設計されており、Vera Rubinと連携することで、1兆パラメータモデルにおいてメガワットあたりの推論スループットを最大35倍向上させ、収益機会を最大10倍に拡大します。このLPXラックは256基のLPUプロセッサを搭載し、128GBのオンチップSRAMと640TB/sのスケールアップ帯域幅を備えています。Vera Rubin NVL72と組み合わせることで、AIモデルのすべての層を共同で計算し、出力トークンごとのデコードを加速します。今年後半に提供開始予定です。

4. NVIDIA BlueField-4 STX ストレージ ラック

AIネイティブなストレージインフラであるBlueField-4 STXは、POD全体でGPUメモリをシームレスに拡張します。BlueField-4を搭載し、NVIDIA Vera CPUとNVIDIA ConnectX-9 SuperNICと組み合わせることで、LLMおよびエージェント型AIワークフローによって生成される大規模なKey-Value (KV) キャッシュデータの保存と取得に最適化された、高帯域幅の共有レイヤーを提供します。新しいDOCAフレームワークであるNVIDIA DOCA Memos™は、専用のKVキャッシュストレージ処理を可能にし、推論スループットを最大5倍向上させ、電力効率も大幅に改善します。詳細はこちらで確認できます: NVIDIA BlueField-4 STX

5. NVIDIA Spectrum-6 SPX Ethernet ラック

Spectrum-6 SPX Ethernetは、AIファクトリー全体の東西トラフィックを高速化するために設計されています。Spectrum-X EthernetまたはNVIDIA Quantum-X800 InfiniBandスイッチで構成可能で、低レイテンシで高スループットのラック間接続を大規模に実現します。コパッケージドオプティクスを搭載するSpectrum-X Ethernet Photonicsは、従来のトランシーバーと比較して、最大5倍の光電力効率と10倍のレジリエンスを提供します。

エネルギー効率とレジリエンスの向上

NVIDIAは、Vera Rubinプラットフォーム向けにDSXを発表しました。新しいDSXプラットフォームには、AIファクトリー全体の動的な電力プロビジョニングを可能にするDSX Max-Qが含まれており、これにより、電力供給制限があるデータセンター内でもAIインフラの展開を30%増加させることができます。また、DSX Flexソフトウェアは、AIファクトリーをグリッドに柔軟な資産へと変え、未活用となっていた100ギガワットのグリッド電力を開放します。

さらに、NVIDIAは協調設計AIインフラのブループリントである「Vera Rubin DSX AI Factory リファレンスデザイン」を公開しました。これは、コンピューティング、ネットワーキング、ストレージ、電力、冷却を緊密に統合することで、エネルギー効率を向上させ、AIファクトリーが継続的な高負荷ワークロードの下で稼働時間を最大化しながら確実に拡張できるようにします。詳細はこちらで確認できます: Vera Rubin DSX AI Factory リファレンス デザイン

幅広いエコシステムからのサポート

Vera Rubinベースの製品は、今年後半にパートナーから提供開始される予定です。これには、Amazon Web Services、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructureといった主要なクラウドプロバイダーのほか、CoreWeave、Crusoe、Lambda、NebiusNscaleおよびTogether AIなどのNVIDIA Cloud Partnerが含まれます。

また、Cisco、Dell TechnologiesHPE、Lenovo、Supermicroといったグローバルシステムメーカーや、AivresASUS、Foxconn、GIGABYTE、Inventec、Pegatron、Quanta Cloud Technology (QCT)、Wistron、Wiwynnからも、Vera Rubin製品をベースにした幅広いサーバーが提供される見込みです。

Anthropic、Meta、Mistral AI、OpenAIなどのAIラボと最先端のモデル開発者は、NVIDIA Vera Rubinプラットフォームを活用し、より大規模で高性能なモデルのトレーニング、低レイテンシ、低コストでの長文コンテキストのマルチモーダルシステム提供を目指しています。

エージェント型AIの未来を加速するVera Rubin

NVIDIA Vera Rubinプラットフォームは、AIインフラの設計と展開において大きな変革をもたらします。7つの革新的なチップと統合されたラックシステムにより、大規模なAIワークロードの効率性とスケーラビリティが飛躍的に向上し、エージェント型AIの普及と進化を強力に後押しすることでしょう。この技術革新が、今後のAIの発展にどのような影響を与えるか、引き続き注目が集まります。

コメント