Kom i gang med den lokale MCP-serveren for Real-Time Intelligence (forhåndsvisning)

Den lokale RTI MCP-serveren lar AI-agenter eller AI-applikasjoner samhandle med Real-Time Intelligence (RTI) eller Azure Data Explorer (ADX) ved å tilby verktøy via MCP-grensesnittet. RTI MCP gjør det enkelt å spørre og analysere data.

MCP-støtte for RTI og ADX er en fullstendig åpen kildekode MCP-server implementering for Microsoft Fabric Real-Time Intelligence (RTI). Kundene må installere, hoste og administrere utrullingen.

Scenarier

Det vanligste scenarioet for å bruke den lokale RTI MCP-serveren er å koble til den fra en eksisterende AI-klient, som Cline, Claude og GitHub Copilot. Klienten kan deretter bruke alle tilgjengelige verktøy for å få tilgang til og samhandle med RTI- eller ADX-ressurser ved hjelp av naturlig språk. For eksempel kan du bruke GitHub Copilot-agent-modus med RTI MCP Server for å liste KQL-databaser eller ADX-klynger eller kjøre naturlige språkspørringer på RTI Eventhouses.

Arkitektur

Den lokale RTI MCP-serveren er kjernen i systemet og fungerer som en bro mellom AI-agenter og datakilder. Agenter sender forespørsler til MCP-serveren, som oversetter dem til Eventhouse-spørringer. RTI MCP-serveren kjører lokalt og gir skrivebeskyttet tilgang til Fabric.

Diagram som viser den lokale MCP-serverarkitekturen.

Den lokale RTI MCP-serveren fungerer som en bro mellom AI-drevne applikasjoner og dataene dine i Fabric. Den kjører lokalt og gir skrivebeskyttet tilgang til Eventhouse-databaser.

Arkitekturen følger MCP klient-server-modellen:

  • MCP Host: Applikasjonen hvor AI-interaksjoner skjer. For eksempel Visual Studio Code med GitHub Copilot, Claude Desktop, Cline. Verten inneholder AI-modelltilkoblingen, en verktøyorkestrator og en eller flere MCP-klienter.
  • MCP Server: En lettvektstjeneste som eksponerer spesifikke funksjoner som strukturerte verktøy. RTI MCP-serveren eksponerer verktøy som «kjør spørring», «liste databaser» og «liste tabeller» som oversettes til Eventhouse-operasjoner.

Enhver applikasjon som støtter MCP kan koble til den lokale RTI MCP-serveren ved å bruke samme protokoll. Dette kan være et interaktivt produkt som GitHub Copilot eller et programmatisk AI-agent-rammeverk.

Viktige funksjoner

Real-Time datatilgang: Hent data fra KQL-databaser på sekunder.

Naturlige språkgrensesnitt: Still spørsmål på vanlig engelsk eller andre språk, og systemet gjør dem om til optimaliserte spørringer (NL2KQL).

Skjemaoppdagelse: Oppdag skjemaer og metadata, slik at du kan lære datastrukturer dynamisk.

Plug-and-Play-integrasjon: Koble MCP-klienter som GitHub Copilot, Claude og Cline til RTI med minimal oppsett på grunn av standardiserte API-er og oppdagelsesmekanismer.

Lokal språkslutning: Arbeid med dataene dine på ditt foretrukne språk.

RTI-komponenter som støttes

Eventhouse – Kjør KQL-spørringer mot KQL-databasene i Eventhouse-serverdelen . Dette enhetlige grensesnittet lar AI-agenter spørre, resonnere og handle på sanntidsdata.

Eventstreams – Søk og administrer Eventstreams for å analysere strømmedata og få sanntidsinnsikt. Du kan liste hendelsesstrømmene i arbeidsområdet ditt, få detaljer og definisjoner, opprette nye hendelsesstrømmer og mer.

Activator - Samhandle med Fabric Activator for å liste Activator-artefakter i arbeidsområdet ditt, lage trigger-handlinger og sette opp varsler.

Kart – Søk og administrer kartressurser for å visualisere data og lage geospatiale innsikter. Du kan liste kart i arbeidsområdet ditt, visualisere data på kart, få detaljer og definisjoner, lage nye kart og mer.

Bemerkning

Du kan også bruke Fabric RTI MCP Server til å kjøre KQL-spørringer mot klyngene i Azure Data Explorer backend.

Installere

For å installere den lokale RTI MCP-serveren, følg de åpen kilde instruksjonene i RTI MCP-serveren-arkivet. Arkivet inkluderer dokumentasjon om installasjon, konfigurasjon og bruk av MCP-serveren med RTI.