執筆者:Nutanix プロダクトマネジメント担当ディレクターKaushik Ghosh、Nutanix シニアプロダクトマーケティングマネージャー Alex Almeida
シンプルなチャットボットの時代は終わりました。エンタープライズ AI は、モデルのトレーニングや基本的な推論の段階を超えて、エージェンティック AI へと急速に進化しています。エージェンティック AI とは、高度な推論、長時間実行されるワークフロー、永続的なメモリ、リアルタイムの意思決定を担う自律システムです。
しかし、AI エージェントが短いプロンプトから、継続的に変化する「ライブ」なエンタープライズデータを扱い、数時間に及ぶ推論セッションを実行するようになるにつれ、インフラ上の大きな課題が顕在化しています。従来のストレージは、AI の継続的な更新を支える動的な「リビングメモリ」として機能することを前提に設計されていません。
企業が実験段階から本番環境レベルの A Iファクトリーへとスケールアップするにつれ、2 つの大きな壁に直面します。
これらの課題に対応するため、Nutanix は Nutanix Unified Storage を、Nutanix の Agentic AI スタックにおけるデータファブリックへと進化させています。単なる受動的なストレージではなく、AI ファクトリーを支える高速データエンジンとして機能します。
大規模言語モデル(LLM)のコンテキストメモリは膨大になる可能性があるため、最適な性能と経済性を実現するために階層化されたティアで構成されます。ティア 1~3 はノード内にあり、GPU VRAM、システムメモリ、ローカル NVMe ドライブに保存されます。ティア 4 は基盤となる共有ストレージ層であり、AIファクトリの「動的なメモリ」を構成します。
Nutanix はこの第 4 層を、RDMA 対応の高性能・低遅延データレイヤーとして実装し、数千規模の GPU を支えることを可能にします。さらに、キャッシュ階層制御ソフトウェアである LMCache と Nutanix Unified Storage を統合することで、容量制約がありコストの高いローカルノードから、耐障害性に優れたデータセンターの共有ストレージへと、AI のメモリをシームレスにオフロードします。
コンテキストメモリに対するこの階層化されたアプローチにより可能になること
NVIDIA AI Data Platform のリファレンスデザインに基づいて構築された Nutanix AI Data Platform は、AI エージェントがエンタープライズデータの生成と同時に推論を行えるようにする機能を提供します。NVIDIA AI Enterprise ソフトウェアと Milvus Vector Database を Nutanix Unified Storage に直接統合することで、組織は生データをリアルタイムで取り込み、変換、ベクトル化できる継続的なデータパイプラインを構築できます。Nutanix の特長として、単一のストレージクラスタ内で、GPU 搭載ノードと CPU のみの高密度ストレージノードを混在させることが可能です。この「コンピュート隣接型」のアーキテクチャは、AI をデータに直接適用できます。これにより、AI エージェントは常に最新の独自インテリジェンスに基づいた推論が可能になり、従来のデータ移動に伴うレイテンシーと運用負荷を大幅に低減できます。
高速な AI コンピューティングに対応するため、Nutanix Unified Storage は、GPU とストレージメモリ間の低レイテンシ― RDMA 対応データパスの提供をめざしています。NVIDIA Magnum IO GPUDirect Storage の検証済みソリューションとして、Nutanix Unified Storage は、AI ワークロードが I/O 処理において CPU を完全にバイパスすることを可能にし、クライアントノードとストレージノードの両方における CPU の負荷を低減すると同時に、GPU の利用率を最大化し、トークンあたりのコストを削減します。現在、高性能なファイルアクセス向けに RDMA 経由の NFS がサポートされており、将来的にはこの機能をオブジェクトストレージ向けの RDMA 経由の S3 へと拡張する予定です。この画期的な技術により、オブジェクトストレージの膨大なスケーラビリティと、超低レイテンシーの GPU へのダイレクトアクセスが融合され、Nutanix Unified Storage のオブジェクトストレージは、大規模な AI ワークロードや最新の AI ファクトリーにとって理想的なデータ基盤となります。
AI の信頼性は、その基盤となるデータの信頼性に左右されます。Nutanix Data Lens(NDL)は、AI ファクトリーに投入されるデータに不可欠なセキュリティとガバナンスを提供し、プロアクティブな監査、ランサムウェア対策、安全なデータ分離を実現します。NDL は、単一の SaaS ベースのポータルとして、または Nutanix ストレージクラスタ上で直接実行することで、単一のデータセンター、またはグローバルに分散した環境かを問わず、複数の Nutanix Unified Storage クラスタにまたがるデータセットの監視、保護、ガバナンスを可能にします。これにより、AI ライフサイクル全体を通じてエンタープライズデータのセキュリティを一貫して維持できます。さらに、将来的には自動データ分類やメタデータタグ付けなどの機能により、秘密情報をインテリジェントに識別し、エンドツーエンドで保護、統制することが可能になります。これにより、コンプライアンスを強化し、エージェンティック AI ワークロードをセキュアに実行できます。
Nutanix は、AI ファクトリー向けモジュラー型ストレージのリファレンスアーキテクチャである NVIDIA STX において、設計パートナーとして参画しています。NVIDIA Vera Rubin NVL72 アーキテクチャを共同設計・開発に加え、NVIDIA BlueField-4 データ処理ユニット(DPU)を活用することで、Nutanix はインテリジェントなデータ処理をストレージ層に直接統合します。これにより、GPU、ベクトルデータベース、RAGパイプラインが、分断されたコンポーネントではなく、ラックスケールの統合システムとして動作することが保証されます。
NVIDIA STX リファレンスアーキテクチャを基盤とする NVIDIA CMX の設計パートナーとして、Nutanixは新たな G3.5 ポッド共有キャッシュ層への対応を構築する予定です。この画期的な技術により、超高性能とスケーラブルな容量を実現し、GPU ポッド間でシームレスなデータ共有が可能になります。コンテキストメモリに対するこの階層型アプローチにより、企業は大規模なコンテキストウィンドウを実行し、GPU の利用率を最大化し、トークンあたりコストの大幅な削減を可能にします。
Nutanix Agentic AI スタックは、企業が実験段階から本番環境レベルの AI ファクトリーへのスケールアップを、次の機能によって支援します。
Nutanix Unified Storage は、Nutanix Agentic AI スタックの中核を成すコンポーネントであり、現代の AI ファクトリーを支えるデータ基盤です。AI をデータに近づけ、スケーラブルな AIの「動的なメモリ」を実現します。Nutanixは、ストレージを単なる受動的な容量から、エージェンティック AI 時代に対応したインテリジェントで高速なデータエンジンへと変革しています。
エージェンティックシステムの運用化に向けた競争において、ボトルネックはシリコンからデータパスへと移行しています。現代の企業にとって真の課題は、GPU をどれだけ保有しているかではなく、自社のデータ基盤が大規模なエージェンティック AI の進化に追いつけるかどうかです。
Nutanix Unified Storage は、その要求に応えます。
©2026 Nutanix, Inc. All rights reserved. Nutanix, the Nutanix logo, and all Nutanix product and service names mentioned herein are registered trademarks or trademarks of Nutanix, Inc. in the United States and other countries. Kubernetes is a registered trademark of The Linux Foundation. NVIDIA and the NVIDIA products mentioned are registered trademarks or trademarks of NVIDIA Corporation. All other brand names mentioned herein are for identification purposes only and may be the trademarks of their respective holder(s). This content may contain express and implied forward-looking statements, which are not historical facts and are instead based on our current expectations, estimates, and beliefs. The accuracy of such statements involves risks and uncertainties and depends upon future events, including those that may be beyond our control, and actual results may differ materially and adversely from those anticipated or implied by such statements. Any forward-looking statements included speak only as of the date hereof and, except as required by law, we assume no obligation to update or otherwise revise any such forward-looking statements to reflect subsequent events or circumstances.