AI が次のステップに進むためのインフラの構築

MLCommons 社と Lamini 社の共同設立者である Greg Diamos 氏が、よりスマートな生成 AI への道と、そのために IT 部門が乗り越えなければならないハードルについて語ります。

By Jason Johnson

By Jason Johnson 2024年01月24日

成長著しい人工知能(AI)や機械学習(ML)の分野で活躍する多くの人々と同様、Greg Diamos 氏も AI がもたらす変革の可能性に注目しています。彼は、機械が画期的なコードを作り、病気になる前に診断し、私たち一人ひとりに超人的な知性を与える未来を思い描いています。

AI 技術をベンチマークするオープンプラットフォーム、 MLCommons の共同設立者である Diamos 氏は、「コンピューティングは、人々に魔法のような能力を与える方法です。私は、そのような能力をすべての人に与えることができる世界に住みたいと思っています。すべての人が超能力を持ったらどうなるでしょう?」 と話ます。

何が問題なのか? AI が真に破壊的であるためには、データセンターは既存のインフラを進化させ、飛躍的に拡張する必要があります。ディープラーニングのタスクは計算コストが高く、膨大なリソースと IT の切り分けが必要となります。生成 AI 競争が過熱し、予測ツールを導入する企業が増えるにつれ、 IT 担当者は、膨大な電力を必要とする AI アプリケーションをサポートするための厳しい課題に直面することになります。

関連記事

IT リーダーは AI に備えよ

Diamos 氏は Forecast の取材に対し次のように語っています。「今、データセンターの管理者であることは、エキサイティングであると同時に恐ろしいことでしょう。どのような企業であっても、データセンターには十分な処理能力を持っていません」

生成 AI のあくなき要求

2022 年、企業向け LLM 微調整システムを構築する Lamini 社を共同設立。 ML システム構築および AI の専門家として、Diamos 氏は GPT ベースのソフトウェアを実現するインフラスタックを構築しています。彼はキャリアのほとんどを AI に費やしており、最初の大規模言語モデル( LLM )の拡張や NVIDIA の影響力のある Volta グラフィックス・プロセッシング・ユニット( GPU )のアーキテクトに貢献しています。

中国の検索大手 Baidu に在職中、Diamos 氏は機械学習研究チームの一員として、 AI のスケーリング法則に関する影響力のある論文を執筆し、極めて大規模なデータセットで AI モデルを学習させることを提唱しました。この論文では、 GPT モデルはデータとリソースを与えれば与えるほど指数関数的に賢くなると論じています。

「前向きに考えれば、 AI はより賢くなり続け、そこから新たな能力が生まれるでしょう」と Diamos 氏は言います。「しかし、その知的な能力を発揮させるためには、指数関数的な計算能力が必要です」

このリソースに対する旺盛な需要は、ITプロフェッショナルを悩ませている。Nutanix Enterprise Cloud Index の最新レポートによると、回答者の大多数( 86% )が、データ分析、AI、MLを含む高性能ワークロードの実行を現在のITインフラストラクチャの課題として挙げています。

関連記事

AI が企業に与える影響を考える

実際、OpenAI の GPT-4 や Google の PaLM 2 のような次世代 LLM は、従来の AI モデルの最大 100 倍のサイズになっています。

Diamos 氏によると、 AI 導入の最大のボトルネックは、高出力の GPU を入手することだといいます。 ChatGPT をはじめとする GPT ベースのアプリの人気は、 AI や ML を動かす非常に高速なプロセッサー・ユニットの需要を急増させています。

「比較的基本的なことを実行するにも、需要と供給の間に大きなミスマッチがあります」と Diamos氏は言います。

「 Microsoft や Amazon、Google といった最大手のハイパースケーラは、ディープラーニングに早くから参入しているため、大規模な IT エコシステムは、この問題に巻き込まれずに済んでいます。彼らは何十万もの GPU をストックしています」

生成 AI ワークロードは通常、パブリッククラウドインフラストラクチャ上で実行されますが、大規模なパブリックハイパースケーラは、巨大なサーバクラスタと最新かつ最高の GPU を利用することができます - データセンターのコスト上昇と可用性の低さにより、企業は代替手段を求めて奔走しています。

「それなりのユーザー数で、それなりの量のデータを処理しようと思ったら......今はかなり高くつきます。 Llama 2 のような基本的なものを動かすには、約 8 倍の A100 マシンが必要です。それが見つかれば、パブリッククラウドで年間数十万ドルかかるでしょう」と彼は推測します。

AI に最適化されたインフラ

LLM 導入の有力な選択肢のひとつに、ハイブリッド・マルチクラウドがあります。より多くの企業が新しい AI や ML テクノロジーを採用するにつれ、プライベートクラウドやエッジクラウドは増加傾向にあると Diamos 氏は言います。

「今はオンプレミスの方がいいかも知れません。GPU サーバーを調達し、クラウドプロバイダーがそれを実行するのを待つよりも、自分でそれを実装する方が簡単です」と同氏は言います。「 GPU の数は十分ではないかも知れませんが、少なくとも開始するためのキャパシティはあるので、市場から取り残されることはありません」

関連記事

AI 時代における IT の 9 つの予測

Diamos 氏によると、ローカル、エッジ、またはパブリッククラウドとプライベートクラウドの混在環境での AI 導入を検討している組織にとって、Nutanix GPT-in-a-Box はゲームチェンジャーとなります。 GPT-in-a-Box は、事前に学習させた生成トランスフォーマーの実行を簡素化するように設計されており、IT 部門が AI に最適化されたインフラストラクチャのサイズ、調達、構成を簡単に行えるようになります。

「AI インフラをゼロから初めて構築するのは非常に困難です」と彼は言います。「それは巨大なエンジニアリング投資です。ボタンを押すだけで、独自のアプリケーションを構築し始めることができるなら、本当に時間の節約になります」

「Nutanix GPT-in-a-Boxは非常に理にかなっています」と彼は言います。「それは非常に容易で、インフラを構築するためのすべての作業を新たにやり直す必要がないからです。これにより迅速な導入が可能になります」

人工知能への道のり

Diamos 氏によると、 AI に対応したサーバーが不足しているにもかかわらず、生成 AI への参入障壁は低くなっているという。今後、 LLM は多くの多様な産業や分野に大きな影響を与えるだろうと彼は予測しています。

同氏は「私たちは検索にディープラーニングを導入する方法を発見しました」と述べ、ChatGPT や GitHub Copilot のような GPT ベースのアプリの成功について言及しました。「しかし、医療、製造、物流、バイオテクノロジーなど、あらゆる主要産業にも応用できるはずです」

McKinsey による 2023 年の調査では、生成 AI が話題となった結果、企業の 40% が AI への投資を増やすと予想しており、主な企業ユースケースとしてマーケティング、製品展開、サプライチェーン管理、製造業を挙げています。

さらに将来を見据え、Diamos 氏は、博士号のような知性を持つ LLM が、高度に専門化された分野の専門家のための高度な研究ツールとして機能することを期待しています。

「英語は一般的で、言語モデルのようなテクノロジーは非常に一般的です。これまで、これを応用できない業界を見たことがありません」と彼は言います。

LLM は文脈に特化した医療 AI の応用のために改良され、急成長している個別化医療の分野ですでに成果を上げています。個別化医療とは、データ分析を使って個々の患者のプロファイルに合わせて治療をカスタマイズする学問分野です。

「患者の病歴にアクセスし、それを言語モデルに渡すことができれば、言語モデルはそのデータを理解し、何をすべきかについて非常に詳細で正確な推奨を行うことができます」と彼は言った。「特定の医学的合併症のリスクを理解することで、より良い治療ができるのです」

もう一歩踏み込んで、Diamos 氏は、 AI や ML は人間の一生の間に、他の多くの人間の能力を獲得する可能性があり、潜在的には人間を凌駕する能力を獲得する可能性があると予測しています。

「過去数百年にわたり、技術の発展がその支えとなってきました。これが飛躍的に加速したらどうなるでしょう?機械がそれに参加し、それを加速させたらどうなるのか」

関連記事

生成 AI が IT モダナイゼーションを推進

Diamos 氏は、中世以来の機械工学の進歩になぞらえて、 AI を搭載した機械やソフトウェアが、人間の能力を飛躍的に向上させる高度なツールとなることを想定しています。

「人間が設計した機械の能力は、人体の能力を大きく上回っています。知性についても同じことが起こると思います。しかし、機械工学の分野と同じように、私たちと同じような姿になるとは思えません。パワーショベルやツルハシ、ハンマーを思い浮かべても、私たちと同じになるとは考えられません」

「期待できるはずです。ただ、それがどんなものになるかはわかりません」と彼は述べています。

ひとつだけ確かなことは、データセンターは生成 AI の進歩を推進する上で重要な役割を果たすが、そのためには相当なコンピューティング能力が必要だということです。

Jason Johnson 氏は寄稿ライターで、ハイテクおよびハイテク関連企業のコンテンツおよびコピーライターとして長年活躍しています。彼の情報は Linkedin でご確認ください。

© 2024 Nutanix, Inc. 無断複写・転載を禁じます。その他の法的情報については、こちらをご覧ください

 

関連する記事

making-nutanix-and-vmware-platforms-run-in-azure
プロファイル

ハイブリッド・クラウドと Azure パブリック・クラウドへの移行の簡素化

マイクロソフトのクラウド・ AI 部門の Rene van den Bedem 氏は、Nutanix と VMware のハイパーバイザーが Azure で動作することを確認しました。このプロファイルでは、問題解決への迅速なアプローチ、 AI を搭載したコパイロットの普及、データセンター機能のパラダイムシフトについて語ります。