Hva er MCP i Real-Time Intelligence? (forhåndsversjon)

Model Context Protocol (MCP) i Real-Time Intelligence (RTI) gjør det mulig for AI-modeller, AI-agenter og applikasjoner å samhandle med Fabric RTI-komponenter ved hjelp av naturlig språk.

Model Context Protocol (MCP) gir en standardisert måte for AI-modeller, som Azure OpenAI-modeller, å oppdage og bruke eksterne verktøy og datakilder. MCP gjør det enklere å bygge intelligente applikasjoner som kan spørre, resonnere og handle på sanntidsdata. MCP gjør det også enklere for AI-agenter å finne, koble seg til og bruke bedriftsdata.

Fabric Real-Time Intelligence tilbyr to typer MCP-servere: lokale og fjerne. Hvert alternativ har ulike distribusjonsmodeller, kapasiteter og bruksområder.

Lokal MCP-server for RTI

Den lokale MCP-serveren for Fabric Real-Time Intelligence er en åpen kildekode-server som du installerer, hoster og administrerer selv. Den kjører på din lokale maskin og gir skrivebeskyttet tilgang til Fabric RTI og Azure Data Explorer (ADX)-ressurser.

Nøkkelegenskaper:

  • Distribusjon: Selvhostet på din lokale maskin
  • Kilde: Open-source på GitHub
  • Access: Lesebeskyttede spørringer til Eventhouse, Eventstream, Map og Azure Data Explorer (ADX)-klynger.
  • Ledelse: Du håndterer installasjon, oppdateringer og vedlikehold

For detaljert informasjon, se Kom i gang med den lokale MCP-serveren.

Eksterne MCP-servere

Eksterne MCP-servere hostes av Microsoft og er tilgjengelige som HTTP-endepunkter. Du konfigurerer MCP-klienten din til å koble til disse serverne uten å installere eller administrere programvare.

Server Beskrivelse Funksjonaliteter
Eventhouse MCP-server Gjør det mulig for AI-agenter å spørre Eventhouse ved hjelp av naturlig språk Skjemaoppdagelse, KQL-spørringsgenerering, dataprøvetaking, naturlig språk til KQL-oversettelse
Aktivator MCP-server Gjør det mulig for AI-agenter å samhandle med Fabric Activator Lag overvåkingsregler, administrer varsler, utløs handlinger
  • MCP-vert: Miljøet der AI-modellen (som GPT-4, Claude eller Gemini) kjører.
  • MCP Client: En mellomtjeneste videresender AI-modellens forespørsler til MCP-servere, som GitHub Copilot, Cline eller Claude Desktop.
  • MCP Server: Små applikasjoner som gjør spesifikke funksjoner tilgjengelige for AI-modeller, som å kjøre databasespørringer. For eksempel kan Fabric RTI MCP-serveren kjøre KQL-spørringer for sanntids datahenting fra KQL-databaser.

Når man skal bruke lokale vs. eksterne servere

Naturlige språkgrensesnitt: Still spørsmål på vanlig engelsk eller andre språk, og systemet gjør dem om til optimaliserte spørringer (NL2KQL – Naturlig språk til Kusto-spørringsspråk).

Scenario Anbefalt alternativ
Søk i Eventhouse- eller ADX-data med full kontroll over serveren Lokal MCP-server
Søk i Eventhouse uten å administrere serverinfrastruktur Fjern Eventhouse MCP
Lag overvåkingsregler og varsler i Activator Fjernaktiverer MCP
Bruk i skyagentplattformer som Copilot Studio eller Azure AI Foundry Eksterne MCP-servere
Trenger offline- eller luftgapet tilgang Lokal MCP-server
Ønsker automatiske oppdateringer og vedlikehold Eksterne MCP-servere

Støttede AI-klienter

Både lokale og eksterne MCP-servere fungerer med populære AI-klienter:

RTI-komponenter som støttes

Eventhouse – Kjør KQL-spørringer mot KQL-databasene i Eventhouse-serverdelen . Dette enhetlige grensesnittet lar AI-agenter søke i sanntidsdataene dine, analysere mønstre og iverksette handlinger basert på det de finner.

Bemerkning

Du kan også bruke Fabric RTI MCP Server til å kjøre KQL-spørringer mot klyngene i Azure Data Explorer backend.