Agentic AIによるエンタープライズ・アプリケーションのワークフロー (2025/07/09)
Agentic AIによるエンタープライズ・アプリケーションのワークフロー (2025/07/09)
https://blogs.oracle.com/ai-and-datascience/post/enterprise-application-workflows-with-agentic-ai
投稿者: Nipun Garg | Principal Member of Technical Staff
Sudhi Murthy | Software Development Senior Manager
Anup Ojah | Master Principal Cloud Architect
はじめに
企業環境の変化に伴い、組織はトランザクション・データ、請求書および規制要件をスピード、正確性および監査性とともに処理および分析する必要があります。従来のバッチ・パイプラインとモノリシック・アプリケーションは、進化する税法、多様なデータ形式、リアルタイムのインサイトの必要性に対応するのに苦労しています。これらの課題に対処するために、オラクルのソリューションは、モデルContextプロトコル(MCP)フレームワークを搭載した、スウォームベースのエージェントAIアーキテクチャを活用しています。
スウォームとは、共通の目標を達成するために共同で作業する2人以上のエージェントのグループを指します。これらのエージェントは、LLMなどのソフトウェア・エンティティであり、複雑なタスクを実行するために相互に作用し、動的で問題解決の機能を持つことができます。
MCPは、アプリケーションがLLMにcontextを提供する方法を標準化するオープン・プロトコルです。これは、AIモデルをさまざまなデータ・ソースやツールに接続するための標準化された方法です。LLMは、多くの場合、データやツールと統合する必要があり、MCPは次のものを提供します。
- LLMが直接接続できる事前構築済の統合のリストが増えています
- LLMプロバイダとベンダーを切り替える柔軟性
- お客様のインフラストラクチャ内でデータを保護するためのベストプラクティス
MCPの詳細については、MCPの紹介をご覧ください。
このブログでは、複数のエージェントが問合せの回答に役立つ実例を確認します。「専門家」と呼ばれる2つの専門AIエージェントが協調して動作し、顧客の税金問合せをサポートします。
ユースケース:MCP上のエージェントAI Swarm
税務監査会社は、監査レポートを作成するために、複数のデータ・ソースからの複数の情報が必要になります。この図では、作成された税金レポートが監査可能であることを確認するために、税金および請求書情報が調整されます。
2人のAIエキスパートがあり、1つは税金問合せと情報用で、もう1つは請求書関連ツール(GetDetails、GetMetadataなど)を提供しています。
- 税金エキスパート
- 機能: Oracle Cloud InfrastructureのRetrieval-Augmented Generation (OCI RAG)エージェントを国固有の課税データで使用し、基本LLMの上に配置します。
- 機能: 税債務の計算、コンプライアンス・チェックリストの生成、および最適な申告戦略の表面化のために、最新の税金コード、規制および前例のケースを動的に問い合せます。
- 統合: OCI Data ScienceでホストされているMCPサーバーで支援される単純なツール・インタフェースをHTTPエンドポイントとして公開し、他のエージェントが税金計算や規制の抜粋を要求できるようにします。
- 請求書エキスパート
- 機能: ADW(Oracle Autonomous Data Warehouse)が支援するMCPサーバー・ツールとインタフェースし、組織の請求書台帳とメタデータを保守します。
- 機能: 仕入先合計、支払期日、明細項目詳細などの請求書データを取得、集計および正規化して、正確なダウンストリーム分析を可能にします。
- 統合: MCPを介して出力を公開し、スワーム内の他のエージェントにすぐに使用できるようにします。
バックグラウンドで、OCI Cohere Manage Serviceは、リクエストのルーティング、状態遷移の管理、各エキスパートが適切なツールを適切なタイミングで起動できるように、リアクション(ReAct)決定サイクルを調整します。
エージェント型AIにMCPを採用する理由
モジュール性とスケーラビリティ
- 各エキスパートは、明確に定義されたツール・インタフェースを備えたマイクロサービスに住んでいます。チームは、他のエージェントに影響を与えることなく、税金コード・ロジックまたは請求書スキーマを個別に更新できます。
- 新しい専門家(例えば、「信用リスク専門家」(信用リスクを決定する専門家)または「監査証跡専門家」(監査証跡を提供する専門家)は、単に別のMCPツールを登録することによって迅速にオンボーディングすることができます。
リアルタイムのコラボレーション
- MCPバスは、異なるサービスをまとまったワークフローにまとめます。アナリストの「6月の未払請求書に対する税債務は何ですか?」問合せにより、請求書エキスパート(データをフェッチするため)と税金エキスパート(負債を計算するため)の両方がシームレスに引き継がれ、数時間ではなく数秒で回答が届きます。
保守性とガバナンス
- ツール・コールおよびデータ交換は、MCPレイヤーで記録および監査可能で、コンプライアンスおよびトレーサビリティ要件をサポートします。
- ロールベースのアクセス制御は、マイクロサービス境界ごとに適用できるため、機密性の高い財務データを保護できます。
コスト効率
- コンピュート・ワークロードを分離することで、各サービスはOCI上で独立して自動スケーリングできるため、リソース使用率を最適化し、コストを制御できます。
- チームは、モノリスを過剰にプロビジョニングするのではなく、消費するコンテナまたは機能実行時間の正確な混合に対してのみ支払います。
イノベーションの迅速化
- MCPのプラグアンドプレイ・モデルにより、ビジネス・ユニットは、コア・パイプラインに触れることなく、軽量なエキスパートを追加することで、請求書異常検出や予測キャッシュフロー予測などの新しいAI機能を試すことができます。
モデル・デプロイメントでのMCPサーバー・ストリーム可能なHTTPの有効化
OCIでは、モデル・デプロイメントは、機械学習モデルのデプロイおよびHTTPエンドポイントとしてのホストMCPサーバーへの拡張に使用されるデータ・サイエンス・サービスの管理対象リソースです。OCI Data Scienceでのホスティングにより、AIアプリケーションとエージェントはツールとデータに安全にアクセスできます。
モデル・デプロイメントのcontextでは、MCPをパイプラインを提供するモデルでミドルウェア・レイヤーとしてホストできます。クライアントは、MCPクライアントでラップされたHTTP推論エンドポイントを起動できます。このクライアントは、セッション識別子をネゴシエートし、共有メタデータを伝播し、必要に応じてサーバーから履歴contextをフェッチします。モデルサーバー側では、MLMまたはファインチューニングモデルにプロンプトを転送する前に、MCPハンドラは前処理中に contextを解析して適用します。後処理では、context (ユーザー・プリファレンスなど)を利用して出力を書式設定またはフィルタリングすることもできます。
MCPをモデル・デプロイメントに組み込み、OCIは次のことを実行できます。
- モデルとのステートフルで動的な対話を可能にします。
- プロンプトの関連性と出力の一貫性を向上させます。
- context対応要約、コンテキスト・コード生成、セッション・ベースの推論などのエンタープライズ・ユース・ケースをサポートします。
まとめ
MCPベースのスウォーム・アーキテクチャを採用することで、財務およびコンプライアンス・チームは、厳格なバッチ指向プロセスから動的なリアルタイムAIエコシステムに移行できます。ドメイン・ロジックを再利用可能なエキスパート・エージェント(MCPによってシームレスに調整され、OCIのRAG、Redis、ADWおよびCohereサービスによって強化)に分解することで、組織は、ビジネス・ニーズの変化に応じてAI機能を進化させる、より迅速なインサイト獲得、より強力なガバナンス、継続的な柔軟性を実現します。
コメント
コメントを投稿