Nutanix Enterprise AI 2.6 が登場:ハイブリッドAIの最前線をオーケストレーションする

AI(人工知能)の急速な普及により、多くの組織が岐路に立たされています。初期の取り組みは、「推論・アズ・ア・サービス(Inference as a Service/ IaaS)」のクレジットを活用するためにパブリッククラウドで開始されることが多いものの、そのPoC(概念実証)を本番環境へと移行するには、プライベートクラウドやオンプレミス環境で得られるガバナンス、コントロール、そしてデータ主権が不可欠になるからです。

今日の企業は、ホスト型プロバイダーモデル(OpenAIやAWS Bedrockなど)、オープンソースのセルフホスト型モデル、そして組織固有にファインチューニングされたモデルを組み合わせた「ハイブリッドAI」アプローチの管理に直面しています。組織がAIを拡張する際、単一のモデルだけに依存することはありません。ハイブリッドなエコシステムを利用するのです。データサイエンティストは精度のために専門特化したモデルをファインチューニングし、アプリケーション開発者は迅速なプロトタイピングのためにホスト型モデルを利用し、IT運用部門はデータ主権を守るためにモデルをセルフホストします。しかし、この断片化は、一貫性のないセキュリティ、悪夢のような可観測性の欠如、そして異なるクラスターやプロバイダー間にまたがるコスト管理といった、大きな障壁を生み出します。

Nutanix Enterprise AI (NAI) が「AI Gateway」を発表 [Tech Preview]

Nutanix Enterprise AI (NAI) 2.6 は、これらの課題に正面から取り組み、「AI Gateway」という集中管理、コントロール、および可観測性のレイヤーを提供します。AI Gatewayは、一貫した認証と可観測性を備えながら、企業がクラウドホスト型モデル(およびトークンクレジット)とプライベートなLLM(大規模言語モデル)を並行して使用できる、統合された安全なエンドポイントを提供します。

Nutanix Enterprise AI (NAI) 2.6 dashboard

統合API: 組織は、単一のAPIを通じて外部プロバイダーのモデルとセルフホスト型モデルの両方にアクセスできるようになりました。これにより、開発者は1つのAPIを使って複数のプロバイダーやセルフホスト環境を活用できます。

トークンベースのきめ細かなレート制限: AI Gatewayは、エンドポイント別およびユーザー別のトークンベースの制限により、きめ細かなコストおよびレート(呼び出し頻度)のガバナンスを提供し、「予期せぬ高額な利用料金」を防ぎます。誰が何を消費しているかを可視化し、組織全体での効率的なコスト配分とリソースの最適化を可能にします。

フォールバックと高可用性: 本番環境のAIにおいて、信頼性は不可欠です。AI Gatewayは統合エンドポイントを通じてエンドポイントのフォールバックをサポートし、プライマリモデルのエンドポイントに障害が発生した場合でも、自動的にトラフィックを正常なバックアップモデルへとルーティングします。

ローカルとリモートエンドポイント間のロードバランシング: 統合エンドポイントでのロードバランシング・サポートにより、複数のクラスターやホスト型プロバイダーに分散している場合でも、モデルのエンドポイント間で負荷を適切に分散させることができます。

リモートMCPサーバーアクセスによるエージェントの強化 [Tech Preview]

Model Context Protocol (MCP) サーバーのアクセス制御サポートにより、AIエージェントが企業内のツールやプライベートなデータソースに安全に接続できるようになります。これにより、静的なモデルが、統制された境界線の中でビジネスワークフローに能動的に参加する存在へと変わります。AI Gatewayは、MCPサーバーに接続されるすべてのツール呼び出しに対して、統合されたロールベース・アクセス制御(RBAC)と監査証跡を適用します。

効率性を追求したパフォーマンスの最適化

GPUは高価であり、マルチターンの会話や長いコンテキストを必要とするタスクでの無駄な再処理は、コストを著しく押し上げる要因となります。NAI 2.6では、2つの主要な推論最適化を導入しました:

kvCache認識ルーティング [Tech Preview]: この戦略は、リクエストを特定のGPUワーカーに振り分けることで無駄な再計算を回避し、「最初のトークンが出力されるまでの時間(TTFT)」を短縮してシステムのスループットを向上させます。

vLLMの投機的デコード: 推論エンジンが過去のパターンに基づき、将来のトークンを予測・提案します。LLMがこれらの提案を受け入れれば、クエリあたりの反復処理を複数回節約でき、コード生成や要約といった反復的なタスクでの応答速度が飛躍的に向上します。

カスタマイズと新機能

インフラと管理機能の強化に加えて、NAI 2.6は、データサイエンティストやAI開発者がAIアプリケーションの限界を押し広げるための機能を追加しています:

LoRAベースの教師ありファインチューニング [Tech Preview]: データサイエンティストやAI開発者は、NAI上で直接、組織固有のデータセットを使用してオープンソースモデルをファインチューニングし、汎用モデルから専門特化モデルへと進化させることができるようになりました。LoRA(Low-Rank Adaptation)の採用により、この計算を効率的に行えるように設計されています。

高度なvLLM推論サンドボックス: このサンドボックスにより、お客様は制御された環境内で、最新のコミュニティ版vLLMやカスタム構成パラメータのテストと実験を安全に行えます。

音声認識機能ポート: NAIは現在、OpenAIのWhisper Large v3モデル向けのNVIDIA NIMをサポートしており、組織のワークフローに音声認識機能を容易に統合できるようにします。

Nutanix Enterprise AI 2.6により、組織は社内の異なるユーザーやモデルプロバイダーが混在する「断片化された環境」に悩まされる必要はなくなります。これらの世界を安全な単一のゲートウェイで統合することで、Nutanixは「真のハイブリッド AI」というビジョンを現実のものにします。

* Tech Previewは、これらの機能が本番環境での使用を想定していないことを示します。


©2026 Nutanix, Inc. All rights reserved. Nutanix, the Nutanix logo and all Nutanix product and service names mentioned are registered trademarks or trademarks of Nutanix, Inc. in the United States and other countries. All other brand names mentioned are for identification purposes only and may be the trademarks of their respective holder(s). This content may contain express and implied forward-looking statements, including related to Tech Preview releases and planned future general availability releases of NaAI, which are not historical facts and are instead based on our current expectations, estimates, and beliefs. The accuracy of such statements involves risks and uncertainties and depends upon future events, including those that may be beyond our control, and actual results may differ materially and adversely from those anticipated or implied by such statements. Any forward-looking statements included speak only as of the date hereof and, except as required by law, we assume no obligation to update or otherwise revise any such forward-looking statements to reflect subsequent events or circumstances.