Del via


Hvad er MCP i Real-Time Intelligence? (forhåndsversion)

Model Context Protocol (MCP) i Real-Time Intelligence (RTI) gør det muligt for AI-modeller, AI-agenter og applikationer at interagere med Fabric RTI-komponenter ved hjælp af naturligt sprog.

Model Context Protocol (MCP) giver en standardiseret måde for AI-modeller, som Azure OpenAI-modeller, at opdage og bruge eksterne værktøjer og datakilder. MCP gør det lettere at bygge intelligente applikationer, der kan forespørge, ræsonnere og handle på realtidsdata. MCP gør det også lettere for AI-agenter at finde, forbinde til og bruge virksomhedsdata.

Fabric's Real-Time Intelligence tilbyder to typer MCP-servere: lokale og fjernbevarede. Hver mulighed har forskellige implementeringsmodeller, kapaciteter og anvendelsesscenarier.

Lokal MCP-server til RTI

Den lokale MCP-server for Fabric Real-Time Intelligence er en open source-server, som du selv installerer, hoster og administrerer. Det kører på din lokale maskine og giver skrivebeskyttet adgang til Fabric RTI og Azure Data Explorer (ADX) ressourcer.

Nøgleegenskaber:

  • Udrulning: Selvhostet på din lokale maskine
  • Kilde: Open-source på GitHub
  • Access: Skrivebeskyttede forespørgsler til Eventhouse, Eventstream, Map og Azure Data Explorer (ADX) klynger.
  • Ledelse: Du styrer installation, opdateringer og vedligeholdelse

For detaljeret information, se Kom i gang med den lokale MCP-server.

Fjern-MCP-servere

Fjern-MCP-servere hostes af Microsoft og er tilgængelige som HTTP-endpoints. Du konfigurerer din MCP-klient til at forbinde til disse servere uden at installere eller administrere nogen software.

Server Beskrivelse Egenskaber
Eventhouse MCP-server Gør det muligt for AI-agenter at forespørge Eventhouse ved hjælp af naturligt sprog Skemaopdagelse, KQL-forespørgselsgenerering, dataudtagning, naturlig sprog-til-KQL-oversættelse
Aktivator MCP-server Gør det muligt for AI-agenter at interagere med Fabric Activator Opret overvågningsregler, håndter advarsler, udløs handlinger
  • MCP-vært: Det miljø, hvor AI-modellen (f.eks. GPT-4, Claude eller Gemini) kører.
  • MCP Client: En mellemliggende tjeneste videresender AI-modellens anmodninger til MCP-servere som GitHub Copilot, Cline eller Claude Desktop.
  • MCP Server: Små applikationer, der gør specifikke funktioner tilgængelige for AI-modeller, såsom at køre databaseforespørgsler. For eksempel kan Fabric RTI MCP-serveren udføre KQL-forespørgsler til realtidsdatahentning fra KQL-databaser.

Hvornår skal man bruge lokale vs. eksterne servere

Naturlige sproggrænseflader: Stil spørgsmål på almindeligt engelsk eller andre sprog, og systemet omdanner dem til optimerede forespørgsler (NL2KQL - Naturligt sprog til Kusto-forespørgselssprog).

scenarie Anbefalet indstilling
Forespørg Eventhouse- eller ADX-data med fuld kontrol over serveren Lokal MCP-server
Foresøg Eventhouse uden at administrere serverinfrastruktur Fjernbeliggende eventhus MCP
Opret overvågningsregler og advarsler i Activator Fjernaktiver MCP
Brug i cloud-agentplatforme som Copilot Studio eller Azure AI Foundry Fjern-MCP-servere
Behov for offline eller air-gapet adgang Lokal MCP-server
Ønsker automatiske opdateringer og vedligeholdelse Fjern-MCP-servere

Understøttede AI-klienter

Både lokale og fjern MCP-servere fungerer med populære AI-klienter:

Understøttede RTI-komponenter

Eventhouse – Kør KQL-forespørgsler mod KQL-databaserne i din Eventhouse-backend . Denne samlede grænseflade lader AI-agenter søge i dine realtidsdata, analysere mønstre og handle baseret på det, de finder.

Bemærkning

Du kan også bruge Fabric RTI MCP Server til at køre KQL-forespørgsler mod klyngerne i din Azure Data Explorer backend.