Real-Time Intelligence (RTI) のモデル コンテキスト プロトコル (MCP) を使用すると、AI モデル、AI エージェント、アプリケーションが自然言語を使用して Fabric RTI コンポーネントと対話できます。
Model Context Protocol (MCP) は、Azure OpenAI モデルなどの AI モデルが外部ツールやデータ ソースを検出して使用するための標準化された方法を提供します。 MCP を使用すると、リアルタイム データに対してクエリを実行し、推論し、操作できるインテリジェントなアプリケーションを簡単に構築できます。 また、MCP を使用すると、AI エージェントはエンタープライズ データの検索、接続、使用が容易になります。
Fabricの Real-Time インテリジェンスには、ローカルとリモートの 2 種類の MCP サーバーが用意されています。 各オプションには、デプロイ モデル、機能、ユース ケースが異なります。
RTI 用のローカル MCP サーバー
Fabric Real-Time Intelligence 用のローカル MCP サーバーは、自分でインストール、ホスト、管理するオープンソース サーバーです。 ローカル コンピューター上で実行され、Fabric RTI および Azure Data Explorer (ADX) リソースへの読み取り専用アクセスが提供されます。
主な特性:
- デプロイ: ローカル コンピューターでセルフホステッド
- Source: GitHubでオープンソース
- Access: Eventhouse、Eventstream、Map、Azure Data Explorer (ADX) クラスターへの読み取り専用クエリ。
- 管理: インストール、更新、メンテナンスを管理します
詳細については、「 ローカル MCP サーバーの概要」を参照してください。
リモート MCP サーバー
リモート MCP サーバーは、Microsoftによってホストされ、HTTP エンドポイントとして使用できます。 ソフトウェアをインストールまたは管理することなく、これらのサーバーに接続するように MCP クライアントを構成します。
| [サーバー] | 説明 | 能力 |
|---|---|---|
| Eventhouse MCP サーバー | AI エージェントが自然言語を使用して Eventhouse にクエリを実行できるようにします | スキーマ検出、KQL クエリ生成、データ サンプリング、自然言語から KQL への変換 |
| アクティベーター MCP サーバー | AI エージェントが Fabric Activator と対話できるようにします | 監視ルールの作成、アラートの管理、アクションのトリガー |
- MCP ホスト: AI モデル (GPT-4、Claude、Gemini など) が実行される環境。
- MCP クライアント: 中間サービスは、GITHUB COPILOT、Cline、Claude Desktop などの MCP サーバーに AI モデルの要求を転送します。
- MCP サーバー: データベース クエリの実行など、AI モデルから特定の機能にアクセスできるようにする小規模なアプリケーション。 たとえば、RTI MCP サーバー Fabric KQL クエリを実行して、KQL データベースからリアルタイムでデータを取得できます。
ローカル サーバーとリモート サーバーを使用する場合
自然言語インターフェイス: プレーンな英語またはその他の言語で質問を行い、システムはそれらを最適化されたクエリ (NL2KQL- 自然言語から Kusto クエリ言語) に変換します。
| シナリオ | 推奨されるオプション |
|---|---|
| サーバーを完全に制御して Eventhouse または ADX データにクエリを実行する | ローカル MCP サーバー |
| サーバー インフラストラクチャを管理せずに Eventhouse にクエリを実行する | リモート イベントハウス MCP |
| Activator で監視ルールとアラートを作成する | リモート アクティベーター MCP |
| Copilot StudioやAzure AI Foundryなどのクラウド エージェント プラットフォームで使用する | リモート MCP サーバー |
| オフラインアクセスまたはエアギャップアクセスが必要 | ローカル MCP サーバー |
| 自動更新とメンテナンスが必要 | リモート MCP サーバー |
サポートされている AI クライアント
ローカルおよびリモートの両方の MCP サーバーは、一般的な AI クライアントで動作します。
サポートされている RTI コンポーネント
Eventhouse - Eventhouse バックエンドの KQL データベースに対して KQL クエリを実行します。 この統合インターフェイスにより、AI エージェントはリアルタイム データを検索し、パターンを分析し、見つけたものに基づいてアクションを実行できます。
注
Fabric RTI MCP サーバーを使用して、Azure Data Explorer バックエンド内のクラスターに対して KQL クエリを実行することもできます。