AIエージェント:現実のビジネスへの影響、エンタープライズ対応のソリューション

2025年2月17日
執筆者:
· 推定読書時間 5  分

本ブログはグローバルで発表された「Agentic AI: Real-world business impact, enterprise-ready solutions」の抄訳版です。

プロダクション・グレードのAIエージェントアプリケーションの構築と運用には、優れた基盤モデル(FM)以上のものが必要です。AIチームは、複雑なワークフロー、インフラ、そしてプロトタイピングからプロダクションまでのAIライフサイクル全体を管理しなければなりません。

しかし、断片化されたツールや固定化されたインフラでは、チームはイノベーションの実現よりも複雑性の管理に多くの時間を費やさざるを得ません。

DataRobotは、Agnostiqとそのオープンソース分散コンピューティングプラットフォーム「Covalent」の買収により、AI主導の意思決定、ガバナンス、ライフサイクル管理、コンピューティングオーケストレーションを統合することで、AIエージェントの開発とデプロイメントを加速させます。

本ブログでは、これらの拡張された機能により、AI実務者がより迅速かつシームレスにAIエージェントアプリケーションを構築し、本番環境で展開する方法をご紹介します。

DataRobotがどのようにAIエージェントを強化するか

  • ビジネスプロセス固有のAI駆動型ワークフロー:ビジネスユースケースをビジネスコンテキストに対応したエージェントAI型ワークフローに変換し、マルチエージェントフレームワークがどのような機能、エージェント、またはツールを呼び出すかを動的に決定することを支援します。
  • AIツールとモデルの最も幅広いスイート:高品質なAIエージェントワークフローを構築、比較、展開します。
  • クラス最高のガバナンスと監視:AIモデル、アプリケーション、自律エージェントのガバナンス(AIレジストリ付き)と監視を行います。

Agnostiqがスタックをどのように強化するか

  • 場所を選ばない処理実行:エージェントは単一の場所に限定されるのではなく、データとアプリケーションが存在する場所で実行され、多様な環境全体での実行を実現します。
  • 計算リソースの最適化:お客様は、オンプレミスやVPC、ハイパースケーラーなど、多様な環境から最適な計算リソースを選択し、可用性、レイテンシー、コストのバランスを最適化することができます。
  • “オーケストレーター”による”オーケストレーター”:run:ai、Kubernetes、SLURMなどの一般的なフレームワークとシームレスに連携して、インフラストラクチャ全体でワークロードの実行を統合します。

実運用グレードのAIエージェントアプリケーションを構築および管理する際の隠れた複雑さ

今日、多くのAIチームはシンプルなプロトタイプやデモを開発できますが、AIエージェントアプリケーションを実運用に移行することは、非常に大きな課題です。そこには以下のように、2つのハードルがあります。

1.アプリケーションの構築

実運用グレードのエージェントAI型アプリケーションを開発するには、コードを書くだけでは不十分です。チームは以下のことに取り組む必要があります。

  • ビジネスニーズをワークフローに変換する。
  • LLM、埋め込みモデル、RAG、ファインチューニング技術、ガードレール、プロンプト手法を組み合わせて、さまざまな戦略を試みる。
  • 特定のビジネスユースケースに対して、ソリューションが厳格な品質、レイテンシー、およびコストの目標を満たしていることを確認する。
  • クラウド、オンプレミス、およびハイブリッド環境で実行するようにワークフローをカスタムコーディングすることにより、インフラストラクチャの制約に対応する。

これには、エンタープライズシステムとシームレスに連携する幅広い生成AIツールとモデルだけでなく、ベンダーロックインとボトルネックを回避するためのインフラストラクチャの柔軟性も必要です。

2.大規模な展開と運用

実稼働するAIアプリケーションには以下が必要です。

  • GPUおよびその他のインフラストラクチャのプロビジョニングと管理。
  • パフォーマンスの監視、信頼性の確保、モデルの動的な調整。
  • ガバナンス、アクセス制御、コンプライアンスレポートの適用。

既存のソリューションを使用しても、アプリケーションを開発から実稼働に移行するまでに数か月かかる場合があります。

既存のAIソリューションの限界

ほとんどのチームは、それぞれに大きな課題のある2つの戦略のいずれかに依存しています。

  • カスタムの「独自の構築」(BYO)AIスタック: より多くの制御を提供しますが、ツールを統合し、インフラストラクチャを構成し、システムを管理するためにかなりの手作業が必要になります。そのため、リソースを大量に消費し、大規模に持続することは不可能です。
  • ハイパースケーラーAIプラットフォーム: AIライフサイクルのさまざまな部分に対応するツール群を提供しますが、これらのツールは本質的に連携するように設計されていません。 AIチームは、複数のサービスを手動で統合、構成、および管理する必要があり、複雑さが増し、柔軟性が低下します。さらに、ガバナンス、オブザーバビリティ、使いやすさが不足する傾向があり、チームはモデルとツールの柔軟性が制限された独自のエコシステムに閉じ込められてしまいます。

エージェントAI型アプリケーションを構築および展開するためのより高速でスマートな方法

AIチームは、インフラストラクチャの複雑さなしに、AIエージェントアプリケーションを構築、展開、および管理するためのシームレスな方法を必要としています。 DataRobotの拡張された機能により、モデルの構築と展開を合理化し、組み込みツールを活用して実際のビジネスニーズをサポートできます。

AIチームにとっての主な利点

  • すぐに使える、ユースケース固有のAIアプリ: カスタマイズ可能なAIアプリにより、AIエージェントアプリケーションを迅速に展開できるため、チームは特定のビジネスニーズに合わせてワークフローを調整できます。
  • 幅広いAIツールスイートで迅速に反復処理: カスタムおよびオープンソースの生成AIモデルを試します。完全に管理されたRAG、Nvidia NeMoガードレール、および組み込みの評価ツールを使用して、AIエージェントワークフローを改善します。
  • 組み込みの評価によるAIワークフローの最適化: LLM-as-a-Judge、人間参加型評価、および運用監視(レイテンシー、トークンの使用状況、パフォーマンスメトリクス)を使用して、ユースケースに最適なエージェントAIアプローチを選択します。
  • 適応型インフラストラクチャによる展開とスケーリング: コスト、レイテンシー、または可用性などの基準を設定し、システムがオンプレミス環境とクラウド環境全体でワークロードを割り当てるようにします。手動で再構成することなく、オンプレミスでスケーリングし、需要の増加に合わせてクラウドに拡張します。
  • 統合されたオブザーバビリティとコンプライアンス: サードパーティを含むすべてのモデルを単一のペインから監視し、AIレジストリでAIアセットを追跡し、監査対応のレポートでコンプライアンスを自動化します。

これらの機能により、AIチームは速度と柔軟性のどちらかを選択する必要がなくなり、より少ない摩擦とより大きな制御で、AIエージェントアプリケーションを構築、展開、およびスケーリングできます。

これらの機能がどのように連携して、より高速で効率的なAIエージェント開発を実現するか、具体例をご紹介します。

マルチエージェントAIワークフローの大規模なオーケストレーション

洗練されたマルチエージェントワークフローは、AIの能力の限界を押し広げています。マルチエージェントシステムを構築するためのオープンソースおよび独自のフレームワークはいくつか存在しますが、1つ重要な課題が見落とされています。それは、異種計算とガバナンス、および各エージェントの運用要件のオーケストレーションです。マルチエージェントワークフローの各メンバーは、異なるバッキングLLMを必要とする場合があります。たとえば、ドメイン固有のデータでファインチューニングされたもの、マルチモーダルなもの、サイズが大きく異なるものなどです。

例:

  • プライマリアナリストエージェントは、Llama 3.3 70Bまたは405Bを必要とし、複数のA100またはH100 GPUを必要とする場合があります。
  • レポート統合エージェントは、Llama 3.3 8Bのみを必要とし、単一のNvidia A100 GPUを必要とする場合があります。

さまざまな計算要件を持つ複数のエージェント間の通信のプロビジョニング、環境の構成、監視、および管理は、すでに複雑です。さらに、運用上およびガバナンス上の制約により、特定のジョブを実行する必要がある場所が決まる場合があります。たとえば、データが特定のデータセンターまたは国に存在する必要がある場合などです。

動作のしくみは次のとおりです。

AIエージェント1

ユースケース:マルチエージェント株式投資戦略アナライザー

金融アナリストは、情報に基づいた投資判断を行うためにリアルタイムの洞察を必要としていますが、膨大な量の財務データ、ニュース、市場シグナルを手動で分析することは、非効率的です。

マルチエージェントAIシステムはこのプロセスを自動化し、より迅速なデータに基づいた推奨事項を提供できます。

この具体例では、次のことを行うマルチエージェントワークフローである株式投資戦略アナライザーを構築します。

  • 動的エージェントを使用して、財務パフォーマンス、競争環境、およびリスク要因を評価します。
  • データに基づいた洞察と購入格付けを備えた構造化された投資レポートを生成します。
  • リアルタイムの金融ニュースを収集して分析することにより、市場のトレンドを追跡します。

動的エージェントの作成のしくみ

このシステムは、静的なマルチエージェントワークフローとは異なり、状況に応じて変化するAIエージェントを作り出すことができます。従来のシステムのように、あらかじめ決められた役割を持つエージェントだけを使うのではなく、市場の状況に合わせて、必要な時に必要な能力を持ったエージェントを自動的に生成します。

FireShot Capture 096 Agentic AI Real World Impact, Enterprise Ready Solutions [www.datarobot.com]

ワークフローの内訳

  1. マルチエージェント株式投資戦略アナライザーは、関心のある株式に関する初期のニュースレポートを収集して処理します。
  2. 次に、リアルタイムのデータインサイトに基づいて役割を割り当て、特殊なエージェントを生成します。
  3. 特殊なエージェントは、以下を含むさまざまな要因を分析します。
    ・財務実績(貸借対照表、収益レポート)
    ・競争環境(業界ポジショニング、市場の脅威)
    ・外部市場シグナル(ウェブ検索、ニュースセンチメント分析)
  4. 一連のレポートエージェントは、インサイトを、買い/売りの推奨を含む構造化された投資レポートにまとめます。

この動的なエージェント作成により、システムはリアルタイムで適応し、リソースを効率的にスケーリングしながら、特殊なエージェントが関連するタスクを処理できるようにします。

Covalentによるインフラストラクチャオーケストレーション

DataRobotとAgnostiqのCovalentプラットフォームを組み合わせることで、Dockerイメージを手動で構築およびデプロイする必要がなくなります。代わりに、AI実務者はパッケージの依存関係を定義するだけで、Covalentが残りを処理します。

ステップ1:コンピューティング環境を定義する
AIエージェント3

手動設定は不要です。依存関係をリストするだけで、Covalentが必要な環境をプロビジョニングします。

ステップ2:ソフトウェア定義の方法でコンピューティングリソースをプロビジョニングする

各エージェントは異なるハードウェアを必要とするため、それに応じてコンピューティングリソースを定義します。

AIエージェント4

Covalentはコンピューティングプロビジョニングを自動化し、AI開発者はPythonでコンピューティングニーズを定義しながら、複数のクラウドおよびオンプレミス環境にわたるリソース割り当てを処理できるようにします。

「オーケストレーターによるオーケストレーター」として機能することで、エージェントロジックとスケーラブルなインフラストラクチャの間のギャップを埋め、利用可能な最良のコンピューティングリソースにワークロードを動的に割り当てます。これにより、手動のインフラストラクチャ管理の負担が軽減され、マルチエージェントアプリケーションのスケーリングと展開が容易になります。

DataRobotのガバナンス、監視、およびオブザーバビリティと組み合わせることで、チームはAIエージェントをより効率的に管理する柔軟性を得ることができます。

  • 柔軟性:大規模なモデル(Llama 3.3 70Bなど)を使用するエージェントは、マルチGPU A100/H100インスタンスに割り当てることができ、軽量のエージェントはCPUベースのインフラストラクチャで実行できます。
  • 自動スケーリング:Covalentは、必要に応じてクラウドおよびオンプレミスにわたってリソースをプロビジョニングし、手動プロビジョニングを排除します。

コンピューティングリソースがプロビジョニングされると、エージェントはデプロイされた推論エンドポイントを介してシームレスに対話して、リアルタイムで意思決定を行うことができます。

ステップ3:AI推論エンドポイントをデプロイする

リアルタイムのエージェントインタラクションのために、Covalentは推論エンドポイントのデプロイをシームレスにします。 Llama 3.3 8Bを使用したプライマリ金融アナリストエージェントの推論サービスのセットアップを次に示します。

AIエージェント5
  • 永続的な推論サービスにより、マルチエージェントインタラクションがリアルタイムで可能になります。
  • 軽量モデルと大規模モデルをサポートします。必要に応じて実行環境を調整するだけです。

8xH100を必要とする405Bパラメーターモデルを実行したいですか?別のエグゼキューターを定義し、同じワークフローにデプロイするだけです。

ステップ4:インフラストラクチャのティアダウン

ワークフローが完了したら、リソースを簡単にシャットダウンできます。

AIエージェント7
  • 使用が終わったら、自動的にリソースが解放されるので、無駄なコストがかかりません。
  • また、手動でリソースを管理する必要がないため、運用管理の手間を削減できます。

自動化なしのAIのスケーリング

実装に進む前に、このアプリケーションを手動で構築およびデプロイするために必要なことを考えてみてください。動的で半自律的なエージェントを大規模に管理するには、常に監視する必要があります。チームは、機能とガードレール のバランスを取り、意図しないエージェントの拡散を防ぎ、明確な責任の連鎖を確保する必要があります。

自動化がないと、これは大規模なインフラストラクチャと運用上の負担になります。Covalentはこれらの課題を解消し、チームがベンダーロックインや特殊なインフラストラクチャチームなしで、あらゆる環境にわたって分散アプリケーションを調整できるようにします。

いますぐお試しください

詳しい手順はこちらのドキュメントに載っています。このドキュメントを参考に、実際に作業を進めて、必要があればカスタマイズしてください。

Covalentのオーケストレーションエンジンの内部

コンピューティングインフラストラクチャの抽象化

Covalentを使用すると、AI実務者は、手動でのコンテナ化、プロビジョニング、またはスケジューリングを行うことなく、Pythonでコンピューティング要件を定義できます。ユーザーは、生のインフラストラクチャを処理する代わりに、サーバーレスフレームワークに似た抽象化されたコンピューティングの概念を指定します。

最小限のコード変更で、オンプレミスのGPUクラスターからAWS P5.24xlインスタンスまで、あらゆる場所でAIパイプラインを実行できます。

開発者は、単一のPythonインターフェースを介して、クラウド、オンプレミス、およびハイブリッドのコンピューティングリソースにアクセスできます。

クラウドに依存しないオーケストレーション:分散環境全体へのスケーリング

Covalentは、Kubernetes、run:ai、SLURMなどの従来のオーケストレーターの上にあるオーケストレーターレイヤーのオーケストレーターとして動作し、クラウド間およびマルチデータセンターのオーケストレーションを可能にします。

  • 多様な環境をサポート: Covalentは、クラウドに依存せず、異種コンピューティングテクノロジーとフレームワークを統合するように構築されています。 SLURMKubernetesなどのオンプレミスHPCスケジューラー、および主要なクラウドサービス(AWS EC2AWS BatchAWS ECSGCP BatchAzure Batch)をサポートしています。
  • VMだけでなく、クラスターを抽象化: 第一世代のオーケストレーターは、VMをクラスターに抽象化しました。 Covalentは、クラスター自体を抽象化することで、さらに一歩進んでいます。
  • DevOpsのオーバーヘッドを排除: Covalentがプロビジョニングとスケーリングを自動化する一方で、AIチームはベンダーロックインなしでクラウドの柔軟性を手に入れます。

エージェントAIパイプラインのワークフローオーケストレーション

Covalentには、高スループットの並列AIワークロード向けに構築されたネイティブワークフローオーケストレーションが含まれています。

  • ハイブリッドコンピューティング環境全体で実行を最適化します。 さまざまなモデル、エージェント、およびコンピューティングインスタンス間のシームレスな調整を保証します。
  • 複雑なAIワークフローを調整します。 マルチステップ、マルチモデルのエージェントAIアプリケーションに最適です。

進化するAIワークロード向けに設計

もともと量子およびHPCアプリケーション向けに構築されたCovalentは、モジュラーアーキテクチャとプラグインエコシステムを備えた多様なコンピューティングパラダイムを統合するようになりました。

  • 新しいHPCテクノロジーとハードウェアに拡張可能:新しいAIハードウェアが市場に出ても、アプリケーションが将来も使用できるようにします。
AIエージェント8

Covalentのプラガブルなコンピューティングオーケストレーターを統合することで、DataRobotはインフラストラクチャに依存しないAIプラットフォームとしての機能を拡張し、新たなHPCテクノロジーとハードウェアベンダーに適応しながら、大規模な分散GPUワークロードを必要とするAIアプリケーションの展開を可能にします。

複雑さを伴わないAIエージェントの本番稼働

AIエージェントアプリケーションは、マルチエージェントワークフローの管理から多様なコンピューティング環境の調整まで、新たなレベルの複雑さを生み出します。CovalentがDataRobotの一部になったことで、AIチームはインフラストラクチャではなく構築に集中できます。

クラウド、オンプレミス、またはハイブリッド環境全体にAIアプリケーションを展開する場合でも、この統合により、構築から本番環境への移行に必要な柔軟性、スケーラビリティ、および制御がシームレスに提供されます。

AIエージェントには大きな期待が寄せられています。これは、オーケストレーション、ガバナンス、スケーラビリティを簡素化する最初のステップにすぎません。近日中に登場する新機能にご期待ください。DataRobotでは、トライアル環境を提供しています。こちらからアカウントを作成し、DataRobotの主要な機能をお試しいただけます。

執筆者について
DataRobot

DataRobotは、ビジネスへの影響を最大化し、リスクを最小限に抑えるAIを提供しています。当社のAIアプリケーションとプラットフォームは、コアビジネスプロセスに統合され、チームがAIを開発、提供、管理することを支援します。DataRobotは、実務担当者が予測および生成AIを提供し、リーダーがAI資産を保護することを可能にします。世界中の組織が、現在そして将来にわたり、ビジネスに役立つAIを提供するDataRobotに信頼を寄せています。詳細については、当社のウェブサイトをご覧ください。LinkedInのフォローもお待ちしています。

投稿をシェアする