執筆者:: Thomas Cornely, プロダクトマネジメント担当 エグゼクティブ・バイスプレジデント
Openclaw の台頭により、金融、旅行プランの調整、健康管理といった複雑なタスクをこなすパーソナライズされたデジタルアシスタントへの関心が、一般消費者の間で急速に高まっています。同時に、こうした「エージェント型」システムは企業内にも浸透しつつあります。マルチステップのワークフローを自動化し、各部門の意思決定を補完することで、ビジネスプロセスそのものを変革しようとしているのです。
エージェント型AIへの移行に伴い、企業のAI採用は大きな転換点を迎えています 。もはや成功への障壁は「モデル」や「個々のエージェントの構築」ではなく、数千ものエージェントを大規模かつ安全に稼働させるために必要な、インフラ管理の複雑性に移っています 。これまでのAIインフラの多くはモデルの「学習」という一つの大きな仕事に最適化されてきましたが、本番環境で「AIの同僚」が活躍する時代には、頻繁な変更、動的な消費、そして大規模な同時実行に対応できるプラットフォームが不可欠です 。
エージェント型AIの規模を拡大する際、企業は2つの課題に直面します 。 一方では、開発者やAIエンジニアが、断片化したツール、孤立したデータ、各種大規模言語モデル(LLM)への安全なアクセスの制限によってイノベーションを阻害されていると感じています 。
もう一方では、インフラおよびプラットフォーム担当チームが、パフォーマンス、セキュリティ、そして規律あるコスト管理を維持しながら、共有AIリソースを大規模に提供しなければならないというプレッシャーにさらされています 。
本日、NVIDIA GTCにおいて、Nutanixは Nutanix Agentic AIを発表しました 。これは、企業が「AIファクトリー」の可能性を最大限に引き出すためのフルスタック・ソフトウェアソリューションです。運用のガバナンスを維持しつつ、開発者のイノベーションのスピードに合わせてAIインフラを提供できる、クラウド運用モデルを実現します 。
AIインフラをプロジェクトごとのサイロとしてではなく、集中管理された共有の極めて柔軟なリソースとして扱うことで、AIファクトリーにクラウド運用モデルをもたらします 。このアーキテクチャは単に運用を簡素化するだけではありません。動的なマルチユーザー環境において「トークンあたりのコスト」を最小限に抑えることで、AIの経済性を根本から最適化します。 詳細はこちら
企業のインフラおよびプラットフォーム担当チームは、AIインフラが新たな「サイロ化した島」になることを望んでいません 。理想は、ハイブリッド・マルチクラウドの他の環境と同じツールと運用モデルで、AIファクトリーを構築・運用・統制できることです 。
Nutanixは、自社ハイパーバイザーの強みとオープンなエコシステムのアプローチを軸に、この統一されたエクスペリエンスを提供できる独自の立場にあります 。Nutanix Agentic AIソリューションは、単にハードウェアを「ラックに並べた」状態から、パフォーマンスを損なうことなく大規模な推論に特化した、管理の行き届いたマルチサービス加速環境への移行を支援します 。このソリューションは、Nutanix AHVハイパーバイザーやFlow Virtual Networkingをはじめ、Nutanixスタック全体の画期的な機能を統合し、AIコンピューティングを自動的に最適化します 。
Nutanixの差別化要因は、VMベースのノード上でKubernetesを実行することで、加速されたコンピューティングをオーケストレートする手法にあります 。これにより、高いパフォーマンス、強固なセキュリティ、効率的な利用率を実現し、トークンあたりのコストを低減します 。共有インフラには、最適化されたリソースのオーケストレーションとセキュリティが欠かせません。だからこそ、私たちのソリューションは、強力なワークロードの隔離とシンプルなDay 2運用のために、AHVハイパーバイザーを基盤としています 。鍵となるのは、パフォーマンスを犠牲にすることなくこれらを提供することです。
アーリーアクセス版の「NVIDIA topology-aware AHV」により、手動のチューニングなしで、GPUを高密度に搭載したサーバー間でのワークロード配置を自動的に最適化し、最大のパフォーマンスを引き出します。また、Nutanix Flow Virtual NetworkingをNVIDIA BlueField DPU(データ処理ユニット)にオフロードすることで、ネットワークとセキュリティの負荷をCPUから解放します。これにより、最大のスループットと堅牢な隔離を維持しながら、推論のためのサイクルを確保することが可能になります。詳細はこちら
AIエンジニアやエージェント型AIの開発者は、MLOps、モデルのファインチューニング、エージェントの構築・稼働、そしてそれらを企業データに接続するために、急速に拡大するツールやフレームワーク群に頼っています。導入を支援するため、Nutanix Kubernetes Platform (NKP) には、主要なオープンソースAIツールやエージェント・フレームワークのカタログが組み込まれました。
また、このオープンカタログを Nutanix Enterprise AI (NAI) 製品のより高度なサービスで補完します 。NAIのバージョン2.6は、成熟した「Model as a Service(MaaS)」プラットフォームを拡張しました。NVIDIAやHugging Faceのモデルを用いたローカル推論のためのエンタープライズ制御機能を備え、新たに搭載された「AI Gateway」が、クラウド型LLMとプライベートLLMの両方に対し、標準化されたアクセス、セキュリティ、利用ガバナンスを統合エントリーポイントとして提供します。
また、Model Context Protocol(MCP)サーバーへの対応を追加しました。これにより、AIエージェントは企業のツールやデータソースへセキュアに接続できるようになります。さらに、NVIDIA Nemotronファミリーのオープンモデル、データセット、トレーニングツールを新たにサポートしたことで、開発者は高度な推論やツールの安全な利用が可能なエージェント型システムの構築が可能になります。これにより、複雑で多段階のワークロードを、より高い自律性を持って実行できるようになります。詳細はこちら
エージェント型AIは、エンタープライズグレードのデータサービスに依存しており、その能力はアクセスできるデータの質に左右されます。NVIDIAの検証済みストレージソリューションであり、NVIDIA STXプログラムのデザインパートナーでもある Nutanix Unified Storage (NUS) は、ストレージクラスター内でのGPU加速による変換とベクトル化を可能にし、データローカリティの問題を解決します。これにより、ボトルのネックのない高性能なデータファブリックを提供します。
数千のGPUクライアントへのリニアな拡張性、低レイテンシのRDMA経由NFS(RDMA経由S3も近日対応予定)、そしてGPUメモリを解放するための「KVキャッシュオフロード」により、お客様はより大きなコンテキストウィンドウとより多くの同時実行ユーザーをサポートしながら、トークンあたりの総コストを抑えることができます 。詳細はこちら
未来は「エージェント型エンタープライズ」のものです。GPUコンピューティング、ソフトウェア定義ネットワーキング、そしてエンタープライズ・データサービスの相互作用をオーケストレートすることで、Nutanixは単なるハードウェアの設置以上の価値を提供しています。AIの複雑性を、スケーラブルな競争優位性に変える、統制された実行環境を提供しているのです。
NVIDIA、そしてCisco、Dell、Supermicroといったリーダー企業との深いエンジニアリングパートナーシップを通じて、Nutanixは次世代のインテリジェンスが強力であるだけでなく、持続可能であることを確保します 。
©2026 Nutanix, Inc. All rights reserved. Nutanix, the Nutanix logo and all Nutanix product and service names mentioned are registered trademarks or trademarks of Nutanix, Inc. in the United States and other countries. All other brand names mentioned are for identification purposes only and may be the trademarks of their respective holder(s). This content may contain express and implied forward-looking statements, which are not historical facts and are instead based on our current expectations, estimates, and beliefs. The accuracy of such statements involves risks and uncertainties and depends upon future events, including those that may be beyond our control, and actual results may differ materially and adversely from those anticipated or implied by such statements. Any forward-looking statements included speak only as of the date hereof and, except as required by law, we assume no obligation to update or otherwise revise any such forward-looking statements to reflect subsequent events or circumstances.