提供:ソーシャルワイヤー株式会社

NVIDIAが、エージェント型AIの未来を切り拓く「Vera Rubinプラットフォーム」を発表しました。7つの新チップと5つのラックで構成されるこのシステムは、大規模なAIモデルの学習から推論、リアルタイムのエージェント型AIまで、あらゆるフェーズを最適化します。AIファクトリーの究極形として、コストパフォーマンスと持続可能性も兼ね備え、今年の後半には主要なクラウドプロバイダーやシステムメーカーから提供が開始される予定です。

NVIDIA Vera Rubinプラットフォームの全貌

AI技術の進化が目覚ましい中、NVIDIAは「Vera Rubinプラットフォーム」の誕生を発表しました。このプラットフォームは、AIファクトリーの究極形として設計されており、膨大なデータを学習し、複雑な推論を行うAIを動かすためのシステムです。

Vera Rubinプラットフォームの核となるのは、7つの新しいチップと、それらが統合された5つのラックです。これらが連携し、「1つの巨大なAIスーパーコンピューター」として機能します。大規模なモデルの事前学習から、推論、そしてリアルタイムのエージェント型AIまで、AIのあらゆるフェーズを最適化するために設計されています。

プラットフォームを構成する主な要素は以下の通りです。
* NVIDIA Vera CPU: AIワークロードの要となるCPUです。
* NVIDIA Rubin GPU: 次世代のAI推論を担うGPUです。
* NVIDIA NVLink™ 6 Switch: チップ間の高速接続を可能にするスイッチです。
* NVIDIA ConnectX®-9 SuperNIC: ネットワーク接続を高速化するNICです。
* NVIDIA BlueField®-4 DPU: データ処理とセキュリティを強化するDPUです。
* NVIDIA Spectrum™-6 Ethernet スイッチ: 高帯域幅ネットワークを実現するイーサネットスイッチです。
* 新たに統合されたNVIDIA Groq 3 LPU: 低レイテンシ推論に特化したプロセッサです。

これらの最先端チップが連携し、AIの可能性を広げることが期待されています。

NVIDIA Vera Rubinの金属製装置
黒い背景に配置された、細長い金属製のNVIDIA Vera Rubin装置。多数の長方形要素が並び、金色の細部と黒色の枠が洗練されたデザインを際立たせています。

エージェント型AI時代を切り拓く性能

Vera Rubinプラットフォームは、特に自律的に判断し行動できる「エージェント型AI」に注力しています。このエージェント型AIの実現には、膨大な計算能力と複雑な処理が求められます。Vera Rubinは、このニーズに応えるべく、各コンポーネントが緻密に設計されています。

OpenAIやAnthropicといったAI企業のCEOたちは、Vera Rubinプラットフォームへの大きな期待を表明しており、より強力なモデルを大規模に実行し、高速で信頼性の高いシステムを数億人のユーザーに提供するために不可欠であると述べています。

NVIDIA Vera Rubin NVL72 ラック

このNVL72ラックは、AIの「脳」となる部分です。NVLink 6で接続された72基のRubin GPUと36基のVera CPUが統合されており、NVIDIAの既存プラットフォームと比較して、4分の1のGPU数で大規模なモデルをトレーニング可能とされています。さらに、トークンあたりのコストを10分の1に削減し、ワットあたり最大10倍高い推論スループットを達成する見込みです。

NVIDIA Vera CPU ラック

エージェント型AIは、GPUによるモデルの推論だけでなく、その結果をテスト・検証するためのCPUベースの環境も大量に必要とします。Vera CPUラックは、最大256基のVera CPUを統合し、高密度の液冷インフラで稼働します。これにより、従来のCPUと比較して2倍の効率と50%の高速化を実現し、エージェント型AIの複雑な思考プロセスをサポートします。

NVIDIA Groq 3 LPX ラック

Vera Rubinプラットフォームに統合されたNVIDIA Groq 3 LPXは、アクセラレーテッドコンピューティングにおける新たなマイルストーンです。エージェント型AIシステムの低レイテンシと大規模コンテキストという要求に応えるために設計されており、1兆パラメータモデルにおいてメガワットあたりの推論スループットを最大35倍向上させ、収益機会を最大10倍に拡大すると予測されています。

NVIDIA BlueField-4 STX ストレージ ラック

AIの能力は、学習したデータだけでなく、推論時に参照する「記憶」(Key-Valueキャッシュデータなど)の量にも大きく左右されます。BlueField-4 STXストレージラックは、AIネイティブなストレージインフラとして、LLM(大規模言語モデル)やエージェント型AIワークフローで生成される膨大なKVキャッシュデータの保存と取得に最適化されています。その結果、推論スループットを最大5倍向上させ、電力効率も大幅に改善します。

NVIDIA Spectrum-6 SPX Ethernet ラック

これら全てのラックを繋ぎ、AIスーパーコンピューター全体を機能させるのが、Spectrum-6 SPX Ethernetラックです。AIファクトリー全体の東西トラフィック(ラック間のデータ通信)を高速化するように設計されています。低レイテンシで高スループットのラック間接続は、巨大なAIシステムが遅延なく連携するために不可欠です。さらに、コパッケージドオプティクスを搭載することで、従来の技術と比較して最大5倍の光電力効率と10倍のレジリエンスを実現します。

コストパフォーマンスと持続可能性

Vera Rubinプラットフォームは、高性能であるだけでなく、コストパフォーマンスと持続可能性にも注目すべき点があります。

NVIDIAは、DSX Max-Qという技術により、データセンターの電力制限がある中でもAIインフラの展開を30%増加させることが可能としています。また、DSX Flexソフトウェアは、AIファクトリーを柔軟な電力資産へと変え、未活用となっていた100ギガワットものグリッド電力を開放できるとされています。これにより、AIシステムの長期的な運用コスト削減とエネルギー効率の向上を通じて、環境負荷の低減にも貢献します。

提供時期と利用方法

この革新的なVera Rubinベースの製品は、今年後半にパートナーから提供が開始される予定です。

Amazon Web Services (AWS)、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructureといった主要なクラウドプロバイダーはもちろん、CoreWeave、Crusoe、LambdaなどNVIDIAのクラウドパートナーからも利用できるようになります。

さらに、Dell Technologies、HPE、Lenovo、Supermicroといったグローバルなシステムメーカーからも、Vera Rubinを搭載した幅広いサーバーが提供される見込みです。これにより、ユーザーはVera Rubinプラットフォームの恩恵を受けるための多様な選択肢を得ることができます。最先端のAI研究機関から、スタートアップ、そして大企業まで、あらゆる組織がこのプラットフォームから大きなメリットを得られるでしょう。

※この記事は、ソーシャルワイヤー株式会社より提供を受けて掲載しています。 記事の内容や関連画像、および発表されたサービス・商品に関するお問い合わせは、発表元である企業・団体様へ直接ご連絡ください。 なお、掲載情報は発表当時のものとなりますので最新の情報とは異なる場合がありますのでご了承ください。