Nutanix、あらゆる環境でエージェント型AIを実現する最新版「Nutanix Enterprise AI」を発表

*本リリースは米国・ワシントンD.C.で現地時間2025年5月7日に発表されたプレスリリースの抄訳版です。原文はこちらをご参照ください。

プレスリリース
2025年5月8日

NVIDIA AI Enterpriseとの統合による新機能を追加し、エンタープライズの本番環境へのエージェント型ワークロードの採用を加速

Nutanix Inc.(本社:米国カリフォルニア州、プレジデント兼CEO: Rajiv Ramaswami 以下、Nutanix)は本日、最新版「Nutanix Enterprise AI(NAI)」ソリューションの一般提供開始を発表しました。これにより、NVIDIA NIMマイクロサービスやNVIDIA NeMoフレームワークなど、NVIDIA AI Enterpriseとの統合がより一層拡大することで、エンタープライズ環境におけるエージェント型AIアプリケーションの展開が加速します。

このNAIは、エッジ、データセンター、あるいは、あらゆるCloud Native Computing Foundation®(CNCF)認定のKubernetes®環境のパブリッククラウドを対象としており、顧客企業によるモデルと推論サービスの構築・実行・セキュアな管理方法をシンプル化することで、エンタープライズ環境で生成AIの採用を加速できるよう設計されています。

最新のNAIは、エージェント型ワークフローをシンプル化する共有モデルサービス手法を拡大し、展開と日々の運用をシンプルにします。これにより、エージェント向けのエンベディング、リランキング、ガードレールの機能モデルによるセキュアな共通セットを用いて複数のアプリケーションを様々な事業部門に展開する際に必要なリソースとモデルを効率化します。この機能は一元管理されたLLMモデルのリポジトリを含むNAIコア上に構築され、セキュアなエンドポイントが作成されることで、生成AIアプリケーションとエージェントは、シンプルかつプライベートに接続されます。

Nutanixの製品管理部門シニア・バイスプレジデントであるThomas Cornelyは、次のように述べています。「Nutanixは現在、生成AI市場で急速に進化するイノベーションへの継続的な対応でお客様をご支援しています。Nutanix Enterprise AIを拡張し、新しいNVIDIA NIMとNeMoマイクロサービスを統合することで、顧客企業は、AIエージェントをあらゆる環境でセキュアかつ効率的に構築・実行・管理できます。」

NVIDIAのエンタープライズAIソフトウェア製品担当バイスプレジデントであるJustin Boitano氏は、次のように述べています。「自社の業務全体でエージェント型AIの開発と展開を簡素化するためには高度なツール群が必要です。NVIDIA NIMマイクロサービスとNVIDIA NeMoを含むNVIDIA AI EnterpriseソフトウェアをNutanix Enterprise AIに統合することで、強力かつセキュアなAIエージェントを構築・実行するための合理的な基盤が実現します。」

エージェント型アプリケーション対応のNAIは、以下の機能を提供します。

  • 共有LLMエンドポイントによる、エージェント型AIアプリケーションの展開:展開された既存のモデルエンドポイントを、複数アプリケーション向けの共有サービスとして再利用できます。モデルエンドポイントの再利用は、GPU、CPU、メモリ、ファイル/オブジェクトのストレージ、Kubernetes®クラスターを含むクリティカルなインフラストラクチャー・コンポーネントの使用を削減します。
  •  広範なLLMエンドポイントの活用:NVIDIA Llama Nemotronのオープン推論モデル、NVIDIA NeMo Retriever、NeMo Guardrailsなど、幅広いエージェント型モデルサービスを実現します。また、事前定義されたカスタマイズ可能なワークフローであるNVIDIA AI Blueprintsを活用し、NVIDIAのモデルとAIマイクロサービスを活用した自社製AIアプリケーションの開発をいち早く行うことができます。さらに、NAIによって、外部データソースの構成と消費のための機能呼び出しが実現することで、AIエージェント型アプリケーションは、より正確かつ詳細な結果を提供します。
  •  生成AIの安全性のサポート:ガードレールモデルを使用して自社のポリシーと合致した形で、エージェント型アプリケーションを実装できます。こうしたモデルは、初期のユーザークエリとLLMの応答をフィルタリングすることで、偏った有害な出力を防ぎ、トピックの制御や脱獄試行の検知も維持できます。例えば、NVIDIA NeMo Guardrailsは、コンテンツフィルタリング機能を通じ、不要なコンテンツや機密性の高いトピックを除外するLLMです。こうしたLLMは、コード生成にも適用できるため、複数のモデルで信頼性と一貫性が向上します。
  •  NVIDIA AI Data Platformによるデータからの洞察抽出:Nutanix Cloud Platformソリューションは、NVIDIA AI Data Platformのリファレンスデザインをベースとしており、Nutanix Unified StorageとNutanix Database Serviceのソリューションを、AI用の非構造化/構造化データ向けに統合します。Nutanix Cloud Infrastructureプラットフォームは、NVIDIAのアクセラレーテッド・コンピューティング、ネットワーキング、AIソフトウェアがデータを実用的なインテルジェンスに変えるためにプライベートな基盤を提供します。Nutanix Unified Storageは、NVIDIA認定エンタープライズ・ストレージ・ソリューションとしてパフォーマンスと拡張性の厳格な基準を満たしており、NVIDIA GPUDirect Storageなどの各種機能を通じ、エンタープライズAIワークロード向けにソフトウェア定義型のエンタープライズストレージを提供します。

NAIは、HCI、ベアメタル、クラウドIaaSへの柔軟な展開を実現しつつ、Nutanixプラットフォームの各種サービスを追加で使用できるよう設計されています。NAIの顧客企業は、コンテナ化されたクラウドネイティブ・アプリケーションのマルチクラウド・フリート管理向けのNutanix Kubernetes Platformソリューションや、個別のデータサービスとしてNutanix Unified Storage(NUS)およびNutanix Database Service(NDB)も活用することで、エージェント型AIアプリケーション向けの包括的なプラットフォームを実現できます。

ESGのプラクティス・ディレクターであるScott Sinclair氏は、次のように述べています。「顧客は、企業がエージェント型機能へと拡張する上で、特に重要な制御を犠牲にすることなく、生成AIの可能性を最大限に発揮できます。今回のNVIDIAとのパートナーシップ拡大により、API用のセキュアなエンドポイント作成を通じ、展開を保護すると同時に、複雑なワークフローの管理リスクを最小限に抑える、エージェント型AI向けに最適化されたソリューションを提供します。AIイニシアチブは戦略的な優位性を実現するために採用されますが、こうした優位性は、インフラストラクチャーのコントロールとセキュリティの最適化なしには実現できません。」

最新版NAIとNVIDIAの新機能の開始方法に関する詳細は、当社の最新のブログ記事をご覧ください。

エージェント型モデル対応のNAIは、すでに一般提供を開始しています。

(以上)

Nutanix Inc.について
Nutanixは、クラウドソフトウェアのグローバルリーダーであり、クラウド間でアプリケーションやデータを運用するための単一プラットフォームを企業に提供しています。Nutanixの活用により、企業は複雑さの軽減と運用の簡素化を実現し、ビジネスの成果に集中することが可能になります。Nutanixはハイパーコンバージドインフラストラクチャーのパイオニアとしての実績をもとに、一貫したシンプルかつコスト効率の高いハイブリッドマルチクラウド環境の構築を支援し、世界中の企業から高い信頼を獲得しています。詳細については、www.nutanix.com/jpをご覧ください。または@NutanixJapanより、フォローしてください。

© 2025 Nutanix, Inc. All rights reserved. NutanixおよびNutanixのロゴマークは米国およびその他の国におけるNutanix, Inc.の登録商標、あるいは出願中の商標です。本リリースに記載されているその他すべてのブランド名は、識別目的でのみ使用されており、各所有者の商標です。