Bemærk
Adgang til denne side kræver godkendelse. Du kan prøve at logge på eller ændre mapper.
Adgang til denne side kræver godkendelse. Du kan prøve at ændre mapper.
Model Context Protocol (MCP) i Real-Time Intelligence (RTI) gør det muligt for AI-modeller, AI-agenter og applikationer at interagere med Fabric RTI-komponenter ved hjælp af naturligt sprog.
Model Context Protocol (MCP) giver en standardiseret måde for AI-modeller, som Azure OpenAI-modeller, at opdage og bruge eksterne værktøjer og datakilder. MCP gør det lettere at bygge intelligente applikationer, der kan forespørge, ræsonnere og handle på realtidsdata. MCP gør det også lettere for AI-agenter at finde, forbinde til og bruge virksomhedsdata.
Fabric's Real-Time Intelligence tilbyder to typer MCP-servere: lokale og fjernbevarede. Hver mulighed har forskellige implementeringsmodeller, kapaciteter og anvendelsesscenarier.
Lokal MCP-server til RTI
Den lokale MCP-server for Fabric Real-Time Intelligence er en open source-server, som du selv installerer, hoster og administrerer. Det kører på din lokale maskine og giver skrivebeskyttet adgang til Fabric RTI og Azure Data Explorer (ADX) ressourcer.
Nøgleegenskaber:
- Udrulning: Selvhostet på din lokale maskine
- Kilde: Open-source på GitHub
- Access: Skrivebeskyttede forespørgsler til Eventhouse, Eventstream, Map og Azure Data Explorer (ADX) klynger.
- Ledelse: Du styrer installation, opdateringer og vedligeholdelse
For detaljeret information, se Kom i gang med den lokale MCP-server.
Fjern-MCP-servere
Fjern-MCP-servere hostes af Microsoft og er tilgængelige som HTTP-endpoints. Du konfigurerer din MCP-klient til at forbinde til disse servere uden at installere eller administrere nogen software.
| Server | Beskrivelse | Egenskaber |
|---|---|---|
| Eventhouse MCP-server | Gør det muligt for AI-agenter at forespørge Eventhouse ved hjælp af naturligt sprog | Skemaopdagelse, KQL-forespørgselsgenerering, dataudtagning, naturlig sprog-til-KQL-oversættelse |
| Aktivator MCP-server | Gør det muligt for AI-agenter at interagere med Fabric Activator | Opret overvågningsregler, håndter advarsler, udløs handlinger |
- MCP-vært: Det miljø, hvor AI-modellen (f.eks. GPT-4, Claude eller Gemini) kører.
- MCP Client: En mellemliggende tjeneste videresender AI-modellens anmodninger til MCP-servere som GitHub Copilot, Cline eller Claude Desktop.
- MCP Server: Små applikationer, der gør specifikke funktioner tilgængelige for AI-modeller, såsom at køre databaseforespørgsler. For eksempel kan Fabric RTI MCP-serveren udføre KQL-forespørgsler til realtidsdatahentning fra KQL-databaser.
- Kom i gang med den eksterne MCP-server til Eventhouse
- Kom i gang med den fjernbetjente MCP-server til Activator
Hvornår skal man bruge lokale vs. eksterne servere
Naturlige sproggrænseflader: Stil spørgsmål på almindeligt engelsk eller andre sprog, og systemet omdanner dem til optimerede forespørgsler (NL2KQL - Naturligt sprog til Kusto-forespørgselssprog).
| scenarie | Anbefalet indstilling |
|---|---|
| Forespørg Eventhouse- eller ADX-data med fuld kontrol over serveren | Lokal MCP-server |
| Foresøg Eventhouse uden at administrere serverinfrastruktur | Fjernbeliggende eventhus MCP |
| Opret overvågningsregler og advarsler i Activator | Fjernaktiver MCP |
| Brug i cloud-agentplatforme som Copilot Studio eller Azure AI Foundry | Fjern-MCP-servere |
| Behov for offline eller air-gapet adgang | Lokal MCP-server |
| Ønsker automatiske opdateringer og vedligeholdelse | Fjern-MCP-servere |
Understøttede AI-klienter
Både lokale og fjern MCP-servere fungerer med populære AI-klienter:
Understøttede RTI-komponenter
Eventhouse – Kør KQL-forespørgsler mod KQL-databaserne i din Eventhouse-backend . Denne samlede grænseflade lader AI-agenter søge i dine realtidsdata, analysere mønstre og handle baseret på det, de finder.
Bemærkning
Du kan også bruge Fabric RTI MCP Server til at køre KQL-forespørgsler mod klyngerne i din Azure Data Explorer backend.