AI ファクトリーのデータ基盤:Nutanix Unified Storage によるエージェンティック AI の実現

執筆者:Nutanix プロダクトマネジメント担当ディレクターKaushik Ghosh、Nutanix シニアプロダクトマーケティングマネージャー Alex Almeida

シンプルなチャットボットの時代は終わりました。エンタープライズ AI は、モデルのトレーニングや基本的な推論の段階を超えて、エージェンティック AI へと急速に進化しています。エージェンティック AI とは、高度な推論、長時間実行されるワークフロー、永続的なメモリ、リアルタイムの意思決定を担う自律システムです。

しかし、AI エージェントが短いプロンプトから、継続的に変化する「ライブ」なエンタープライズデータを扱い、数時間に及ぶ推論セッションを実行するようになるにつれ、インフラ上の大きな課題が顕在化しています。従来のストレージは、AI の継続的な更新を支える動的な「リビングメモリ」として機能することを前提に設計されていません。

エージェンティック AIの2つのボトルネック

企業が実験段階から本番環境レベルの A Iファクトリーへとスケールアップするにつれ、2 つの大きな壁に直面します。

  1. 推論コンテキストの肥大化:エージェンティック AI システムには、永続的な推論コンテキスト、すなわち AI のワーキングメモリが必要です。セッションが長時間化し、モデルがより大きなコンテキストウィンドウをサポートするにつれて、このワーキングメモリは限られたGPU VRAM、システムメモリ、ローカル容量を急速に超えてしまいます。また、推論コンテキストは、GPU やノード間で共有される必要があります。セッションが別の GPU に移行する際、それまでのコンテキストへのアクセスを即座に維持しなければなりません。この長時間保持されるメモリのためのスケーラブルで共有可能な低遅延ストレージがなければ、パフォーマンスが低下し、GPU が停止し、インフラコストが大幅に上昇する可能性があります。
  2. リアルタイムデータ推論:エージェントは、生成されたばかりの最新のエンタープライズデータに基づいて推論を行う必要があります。これには、単に「そこに保存する」だけのストレージではなく、データを能動的に取り込み、変換し、ほぼリアルタイムで RAG(検索拡張生成)パイプラインに供給するストレージが必要です。真のリアルタイム応答性を実現するには、データ処理パイプラインはデータの近くで動作することが重要です。データが格納されている同一ストレージクラスタ内で処理が完結することが理想的です。最新かつ信頼性の高いエンタープライズデータに即座にアクセスできなければ、エージェンティック AI システムは陳腐化し、精度が低下し、最終的には生産性が低下してしまいます。

Nutanix Unified Storage:AI の「動的なメモリ」の基盤

これらの課題に対応するため、Nutanix は Nutanix Unified Storage を、Nutanix の Agentic AI スタックにおけるデータファブリックへと進化させています。単なる受動的なストレージではなく、AI ファクトリーを支える高速データエンジンとして機能します。

1. コンテキストメモリのオフロード:共有ストレージ層

大規模言語モデル(LLM)のコンテキストメモリは膨大になる可能性があるため、最適な性能と経済性を実現するために階層化されたティアで構成されます。ティア 1~3 はノード内にあり、GPU VRAM、システムメモリ、ローカル NVMe ドライブに保存されます。ティア 4 は基盤となる共有ストレージ層であり、AIファクトリの「動的なメモリ」を構成します。

Nutanix はこの第 4 層を、RDMA 対応の高性能・低遅延データレイヤーとして実装し、数千規模の GPU を支えることを可能にします。さらに、キャッシュ階層制御ソフトウェアである LMCache と Nutanix Unified Storage を統合することで、容量制約がありコストの高いローカルノードから、耐障害性に優れたデータセンターの共有ストレージへと、AI のメモリをシームレスにオフロードします。

コンテキストメモリに対するこの階層化されたアプローチにより可能になること

  • ·大規模なコンテキストウィンドウをシステムクラッシュのリスクなしに実行
  • 同一のGPUフリート上で、より多くの同時ユーザーをサポート
  • GPUの利用率を最大化し、「トークンあたりのコスト」の削減に貢献

2. リアルタイムデータ推論:NVIDIA AI Data Platform の基盤

NVIDIA AI Data Platform のリファレンスデザインに基づいて構築された Nutanix AI Data Platform は、AI エージェントがエンタープライズデータの生成と同時に推論を行えるようにする機能を提供します。NVIDIA AI Enterprise ソフトウェアと Milvus Vector Database を Nutanix Unified Storage に直接統合することで、組織は生データをリアルタイムで取り込み、変換、ベクトル化できる継続的なデータパイプラインを構築できます。Nutanix の特長として、単一のストレージクラスタ内で、GPU 搭載ノードと CPU のみの高密度ストレージノードを混在させることが可能です。この「コンピュート隣接型」のアーキテクチャは、AI をデータに直接適用できます。これにより、AI エージェントは常に最新の独自インテリジェンスに基づいた推論が可能になり、従来のデータ移動に伴うレイテンシーと運用負荷を大幅に低減できます。

3. 最大速度:RDMA 経由の NFS および S3

高速な AI コンピューティングに対応するため、Nutanix Unified Storage は、GPU とストレージメモリ間の低レイテンシ― RDMA 対応データパスの提供をめざしています。NVIDIA Magnum IO GPUDirect Storage の検証済みソリューションとして、Nutanix Unified Storage は、AI ワークロードが I/O 処理において CPU を完全にバイパスすることを可能にし、クライアントノードとストレージノードの両方における CPU の負荷を低減すると同時に、GPU の利用率を最大化し、トークンあたりのコストを削減します。現在、高性能なファイルアクセス向けに RDMA 経由の NFS がサポートされており、将来的にはこの機能をオブジェクトストレージ向けの RDMA 経由の S3 へと拡張する予定です。この画期的な技術により、オブジェクトストレージの膨大なスケーラビリティと、超低レイテンシーの GPU へのダイレクトアクセスが融合され、Nutanix Unified Storage のオブジェクトストレージは、大規模な AI ワークロードや最新の AI ファクトリーにとって理想的なデータ基盤となります。

4. Nutanix Data Lens:エンタープライズセキュリティとガバナンス

AI の信頼性は、その基盤となるデータの信頼性に左右されます。Nutanix Data Lens(NDL)は、AI ファクトリーに投入されるデータに不可欠なセキュリティとガバナンスを提供し、プロアクティブな監査、ランサムウェア対策、安全なデータ分離を実現します。NDL は、単一の SaaS ベースのポータルとして、または Nutanix ストレージクラスタ上で直接実行することで、単一のデータセンター、またはグローバルに分散した環境かを問わず、複数の Nutanix Unified Storage クラスタにまたがるデータセットの監視、保護、ガバナンスを可能にします。これにより、AI ライフサイクル全体を通じてエンタープライズデータのセキュリティを一貫して維持できます。さらに、将来的には自動データ分類やメタデータタグ付けなどの機能により、秘密情報をインテリジェントに識別し、エンドツーエンドで保護、統制することが可能になります。これにより、コンプライアンスを強化し、エージェンティック AI ワークロードをセキュアに実行できます。

継続的なイノベーション

NVIDIA STX および CMX の設計パートナー

Nutanix は、AI ファクトリー向けモジュラー型ストレージのリファレンスアーキテクチャである NVIDIA STX において、設計パートナーとして参画しています。NVIDIA Vera Rubin NVL72 アーキテクチャを共同設計・開発に加え、NVIDIA BlueField-4 データ処理ユニット(DPU)を活用することで、Nutanix はインテリジェントなデータ処理をストレージ層に直接統合します。これにより、GPU、ベクトルデータベース、RAGパイプラインが、分断されたコンポーネントではなく、ラックスケールの統合システムとして動作することが保証されます。

NVIDIA STX リファレンスアーキテクチャを基盤とする NVIDIA CMX の設計パートナーとして、Nutanixは新たな G3.5 ポッド共有キャッシュ層への対応を構築する予定です。この画期的な技術により、超高性能とスケーラブルな容量を実現し、GPU ポッド間でシームレスなデータ共有が可能になります。コンテキストメモリに対するこの階層型アプローチにより、企業は大規模なコンテキストウィンドウを実行し、GPU の利用率を最大化し、トークンあたりコストの大幅な削減を可能にします。

AI ファクトリーを容易に構築

Nutanix Agentic AI スタックは、企業が実験段階から本番環境レベルの AI ファクトリーへのスケールアップを、次の機能によって支援します。

  • トークンあたりのコストの最小化:AI のコンテキストメモリを、スケーラブルで低レイテンシーの G4 ストレージ層にオフロードすることで、長文コンテキストの推論の経済性が大幅に向上します。高価な GPU メモリへの負荷を軽減することで、より大きなコンテキストウィンドウとより多くの同時ユーザーをサポートし、GPU の利用率を最大化できます。
  • AI 生産性の向上:ストレージクラスタ上で直接実行される継続的なデータパイプラインにより、AI をデータに直接適用できます。これにより、コストのかかるデータ移動を最小限に抑え、エージェンティック AI システムが、生成された直後の最新のエンタープライズデータに基づいて常に動作できるようになります。
  • リニアなスケーラビリティ:ファイルおよびオブジェクトワークロードの両方に対応した、高密度かつ高性能な GPU ダイレクトストレージのサポートにより、AI ファクトリーの性能と容量をリニアに拡張し、数千規模の AI エージェントが一貫したパフォーマンスで実行可能になります。
  • エンタープライズセキュリティとガバナンス:Nutanix Data Lens(NDL)がデータセット全体にわたるグローバルな可視性と制御を提供し、AIライフサイクル全体を通じて組み込みのセキュリティ、監査、ガバナンスを実現します。
  • 将来を見据えたアーキテクチャ:NVIDIA STX および CMX のロードマップとの深い連携により、NVIDIA Vera Rubin NVL72 や BlueField-4 などの次世代プラットフォーム向けに AI インフラが最適化されることが保証されます。

結論

Nutanix Unified Storage は、Nutanix Agentic AI スタックの中核を成すコンポーネントであり、現代の AI ファクトリーを支えるデータ基盤です。AI をデータに近づけ、スケーラブルな AIの「動的なメモリ」を実現します。Nutanixは、ストレージを単なる受動的な容量から、エージェンティック AI 時代に対応したインテリジェントで高速なデータエンジンへと変革しています。

エージェンティックシステムの運用化に向けた競争において、ボトルネックはシリコンからデータパスへと移行しています。現代の企業にとって真の課題は、GPU をどれだけ保有しているかではなく、自社のデータ基盤が大規模なエージェンティック AI の進化に追いつけるかどうかです。

Nutanix Unified Storage は、その要求に応えます。

 

©2026 Nutanix, Inc. All rights reserved. Nutanix, the Nutanix logo, and all Nutanix product and service names mentioned herein are registered trademarks or trademarks of Nutanix, Inc. in the United States and other countries. Kubernetes is a registered trademark of The Linux Foundation. NVIDIA and the NVIDIA products mentioned are registered trademarks or trademarks of NVIDIA Corporation. All other brand names mentioned herein are for identification purposes only and may be the trademarks of their respective holder(s). This content may contain express and implied forward-looking statements, which are not historical facts and are instead based on our current expectations, estimates, and beliefs. The accuracy of such statements involves risks and uncertainties and depends upon future events, including those that may be beyond our control, and actual results may differ materially and adversely from those anticipated or implied by such statements. Any forward-looking statements included speak only as of the date hereof and, except as required by law, we assume no obligation to update or otherwise revise any such forward-looking statements to reflect subsequent events or circumstances.