Was ist MCP in Real-Time Intelligence? (Vorschau)

Mit dem Model Context Protocol (MCP) in Real-Time Intelligence (RTI) können KI-Modelle, KI-Agents und Anwendungen mit Fabric RTI-Komponenten mit natürlicher Sprache interagieren.

Das Model Context Protocol (MCP) bietet eine standardisierte Möglichkeit für KI-Modelle wie Azure OpenAI-Modelle, um externe Tools und Datenquellen zu ermitteln und zu verwenden. MCP erleichtert das Erstellen intelligenter Anwendungen, die Daten in Echtzeit abfragen, begründen und bearbeiten können. MCP erleichtert außerdem KI-Agents das Auffinden, Herstellen einer Verbindung zu und die Verwendung von Unternehmensdaten.

Fabric Real-Time Intelligence bietet zwei Arten von MCP-Servern: lokal und remote. Jede Option verfügt über unterschiedliche Bereitstellungsmodelle, Funktionen und Anwendungsfälle.

Lokaler MCP-Server für RTI

Der lokale MCP-Server für Fabric Real-Time Intelligence ist ein Open-Source-Server, den Sie selbst installieren, hosten und verwalten. Es wird auf Ihrem lokalen Rechner ausgeführt und bietet schreibgeschützten Zugriff auf die Ressourcen von Fabric RTI und Azure Data Explorer (ADX).

Wichtige Merkmale:

  • Bereitstellung: Selbst gehostet auf Ihrem lokalen Computer
  • Source: Open-source auf GitHub
  • Access: Schreibgeschützte Abfragen für Eventhouse-, Eventstream-, Map- und Azure Data Explorer-Cluster (ADX).
  • Verwaltung: Sie verwalten Installation, Updates und Wartung

Ausführliche Informationen finden Sie unter "Erste Schritte mit dem lokalen MCP-Server".

MCP-Remoteserver

Remote-MCP-Server werden von Microsoft gehostet und sind als HTTP-Endpunkte verfügbar. Sie konfigurieren Ihren MCP-Client, um eine Verbindung mit diesen Servern herzustellen, ohne Software zu installieren oder zu verwalten.

Server Beschreibung Fähigkeiten
Eventhouse MCP-Server Ermöglicht KI-Agents die Abfrage von Eventhouse mithilfe natürlicher Sprache Schemaerkennung, KQL-Abfrageerstellung, Datenauswahl, Übersetzung von natürlicher Sprache in KQL
Aktivator MCP-Server Ermöglicht KI-Agents, mit Fabric Aktivator zu interagieren Erstellen von Überwachungsregeln, Verwalten von Warnungen, Auslösen von Aktionen
  • MCP-Host: Die Umgebung, in der das KI-Modell (z. B. GPT-4, Claude oder Gemini) ausgeführt wird.
  • MCP-Client: Ein Zwischendienst leitet die Anforderungen des KI-Modells an MCP-Server weiter, z. B. GitHub Copilot, Cline oder Claude Desktop.
  • MCP-Server: Kleine Anwendungen, die bestimmte Features für KI-Modelle zugänglich machen, z. B. das Ausführen von Datenbankabfragen. Beispielsweise kann Fabric RTI MCP-Server KQL-Abfragen für den Echtzeitdatenabruf aus KQL-Datenbanken ausführen.

Wann sie lokale vs. Remoteserver verwenden

Schnittstellen für natürliche Sprachen: Stellen Sie Fragen in einfachem Englisch oder anderen Sprachen, und das System wandelt sie in optimierte Abfragen um (NL2KQL- Natural Language to Kusto Query Language).

Szenario Empfohlene Option
Abfragen von Eventhouse- oder ADX-Daten mit voller Kontrolle über den Server Lokaler MCP-Server
Abfrage an Eventhouse ohne Verwaltung der Serverinfrastruktur. Remote Eventhouse MCP
Erstellen von Überwachungsregeln und Warnungen im Aktivierer Fernaktivator MCP
Verwenden in Cloud-Agent-Plattformen wie Copilot Studio oder Azure AI Foundry MCP-Remoteserver
Offline- oder luftgespaltener Zugriff erforderlich Lokaler MCP-Server
Möchten Sie automatische Updates und Wartung MCP-Remoteserver

Unterstützte KI-Clients

Sowohl lokale als auch Remote-MCP-Server funktionieren mit beliebten KI-Clients:

Unterstützte RTI-Komponenten

Eventhouse – Führen Sie KQL-Abfragen für die KQL-Datenbanken in Ihrem Eventhouse-Back-End aus. Mit dieser einheitlichen Schnittstelle können KI-Agents Ihre Echtzeitdaten durchsuchen, Muster analysieren und Aktionen basierend auf dem gefundenen Verhalten ergreifen.

Hinweis

Sie können auch den Fabric RTI MCP-Server verwenden, um KQL-Abfragen für die Cluster in Ihrem Azure Data Explorer-Back-End auszuführen.