Merk
Tilgang til denne siden krever autorisasjon. Du kan prøve å logge på eller endre kataloger.
Tilgang til denne siden krever autorisasjon. Du kan prøve å endre kataloger.
Model Context Protocol (MCP) i Real-Time Intelligence (RTI) gjør det mulig for AI-modeller, AI-agenter og applikasjoner å samhandle med Fabric RTI-komponenter ved hjelp av naturlig språk.
Model Context Protocol (MCP) gir en standardisert måte for AI-modeller, som Azure OpenAI-modeller, å oppdage og bruke eksterne verktøy og datakilder. MCP gjør det enklere å bygge intelligente applikasjoner som kan spørre, resonnere og handle på sanntidsdata. MCP gjør det også enklere for AI-agenter å finne, koble seg til og bruke bedriftsdata.
Fabric Real-Time Intelligence tilbyr to typer MCP-servere: lokale og fjerne. Hvert alternativ har ulike distribusjonsmodeller, kapasiteter og bruksområder.
Lokal MCP-server for RTI
Den lokale MCP-serveren for Fabric Real-Time Intelligence er en åpen kildekode-server som du installerer, hoster og administrerer selv. Den kjører på din lokale maskin og gir skrivebeskyttet tilgang til Fabric RTI og Azure Data Explorer (ADX)-ressurser.
Nøkkelegenskaper:
- Distribusjon: Selvhostet på din lokale maskin
- Kilde: Open-source på GitHub
- Access: Lesebeskyttede spørringer til Eventhouse, Eventstream, Map og Azure Data Explorer (ADX)-klynger.
- Ledelse: Du håndterer installasjon, oppdateringer og vedlikehold
For detaljert informasjon, se Kom i gang med den lokale MCP-serveren.
Eksterne MCP-servere
Eksterne MCP-servere hostes av Microsoft og er tilgjengelige som HTTP-endepunkter. Du konfigurerer MCP-klienten din til å koble til disse serverne uten å installere eller administrere programvare.
| Server | Beskrivelse | Funksjonaliteter |
|---|---|---|
| Eventhouse MCP-server | Gjør det mulig for AI-agenter å spørre Eventhouse ved hjelp av naturlig språk | Skjemaoppdagelse, KQL-spørringsgenerering, dataprøvetaking, naturlig språk til KQL-oversettelse |
| Aktivator MCP-server | Gjør det mulig for AI-agenter å samhandle med Fabric Activator | Lag overvåkingsregler, administrer varsler, utløs handlinger |
- MCP-vert: Miljøet der AI-modellen (som GPT-4, Claude eller Gemini) kjører.
- MCP Client: En mellomtjeneste videresender AI-modellens forespørsler til MCP-servere, som GitHub Copilot, Cline eller Claude Desktop.
- MCP Server: Små applikasjoner som gjør spesifikke funksjoner tilgjengelige for AI-modeller, som å kjøre databasespørringer. For eksempel kan Fabric RTI MCP-serveren kjøre KQL-spørringer for sanntids datahenting fra KQL-databaser.
- Kom i gang med den eksterne MCP-serveren for Eventhouse
- Kom i gang med den eksterne MCP-serveren for Activator
Når man skal bruke lokale vs. eksterne servere
Naturlige språkgrensesnitt: Still spørsmål på vanlig engelsk eller andre språk, og systemet gjør dem om til optimaliserte spørringer (NL2KQL – Naturlig språk til Kusto-spørringsspråk).
| Scenario | Anbefalt alternativ |
|---|---|
| Søk i Eventhouse- eller ADX-data med full kontroll over serveren | Lokal MCP-server |
| Søk i Eventhouse uten å administrere serverinfrastruktur | Fjern Eventhouse MCP |
| Lag overvåkingsregler og varsler i Activator | Fjernaktiverer MCP |
| Bruk i skyagentplattformer som Copilot Studio eller Azure AI Foundry | Eksterne MCP-servere |
| Trenger offline- eller luftgapet tilgang | Lokal MCP-server |
| Ønsker automatiske oppdateringer og vedlikehold | Eksterne MCP-servere |
Støttede AI-klienter
Både lokale og eksterne MCP-servere fungerer med populære AI-klienter:
RTI-komponenter som støttes
Eventhouse – Kjør KQL-spørringer mot KQL-databasene i Eventhouse-serverdelen . Dette enhetlige grensesnittet lar AI-agenter søke i sanntidsdataene dine, analysere mønstre og iverksette handlinger basert på det de finner.
Bemerkning
Du kan også bruke Fabric RTI MCP Server til å kjøre KQL-spørringer mot klyngene i Azure Data Explorer backend.