Merk
Tilgang til denne siden krever autorisasjon. Du kan prøve å logge på eller endre kataloger.
Tilgang til denne siden krever autorisasjon. Du kan prøve å endre kataloger.
Den lokale RTI MCP-serveren lar AI-agenter eller AI-applikasjoner samhandle med Real-Time Intelligence (RTI) eller Azure Data Explorer (ADX) ved å tilby verktøy via MCP-grensesnittet. RTI MCP gjør det enkelt å spørre og analysere data.
MCP-støtte for RTI og ADX er en fullstendig åpen kildekode MCP-server implementering for Microsoft Fabric Real-Time Intelligence (RTI). Kundene må installere, hoste og administrere utrullingen.
Scenarier
Det vanligste scenarioet for å bruke den lokale RTI MCP-serveren er å koble til den fra en eksisterende AI-klient, som Cline, Claude og GitHub Copilot. Klienten kan deretter bruke alle tilgjengelige verktøy for å få tilgang til og samhandle med RTI- eller ADX-ressurser ved hjelp av naturlig språk. For eksempel kan du bruke GitHub Copilot-agent-modus med RTI MCP Server for å liste KQL-databaser eller ADX-klynger eller kjøre naturlige språkspørringer på RTI Eventhouses.
Arkitektur
Den lokale RTI MCP-serveren er kjernen i systemet og fungerer som en bro mellom AI-agenter og datakilder. Agenter sender forespørsler til MCP-serveren, som oversetter dem til Eventhouse-spørringer. RTI MCP-serveren kjører lokalt og gir skrivebeskyttet tilgang til Fabric.
Den lokale RTI MCP-serveren fungerer som en bro mellom AI-drevne applikasjoner og dataene dine i Fabric. Den kjører lokalt og gir skrivebeskyttet tilgang til Eventhouse-databaser.
Arkitekturen følger MCP klient-server-modellen:
- MCP Host: Applikasjonen hvor AI-interaksjoner skjer. For eksempel Visual Studio Code med GitHub Copilot, Claude Desktop, Cline. Verten inneholder AI-modelltilkoblingen, en verktøyorkestrator og en eller flere MCP-klienter.
- MCP Server: En lettvektstjeneste som eksponerer spesifikke funksjoner som strukturerte verktøy. RTI MCP-serveren eksponerer verktøy som «kjør spørring», «liste databaser» og «liste tabeller» som oversettes til Eventhouse-operasjoner.
Enhver applikasjon som støtter MCP kan koble til den lokale RTI MCP-serveren ved å bruke samme protokoll. Dette kan være et interaktivt produkt som GitHub Copilot eller et programmatisk AI-agent-rammeverk.
Viktige funksjoner
Real-Time datatilgang: Hent data fra KQL-databaser på sekunder.
Naturlige språkgrensesnitt: Still spørsmål på vanlig engelsk eller andre språk, og systemet gjør dem om til optimaliserte spørringer (NL2KQL).
Skjemaoppdagelse: Oppdag skjemaer og metadata, slik at du kan lære datastrukturer dynamisk.
Plug-and-Play-integrasjon: Koble MCP-klienter som GitHub Copilot, Claude og Cline til RTI med minimal oppsett på grunn av standardiserte API-er og oppdagelsesmekanismer.
Lokal språkslutning: Arbeid med dataene dine på ditt foretrukne språk.
RTI-komponenter som støttes
Eventhouse – Kjør KQL-spørringer mot KQL-databasene i Eventhouse-serverdelen . Dette enhetlige grensesnittet lar AI-agenter spørre, resonnere og handle på sanntidsdata.
Eventstreams – Søk og administrer Eventstreams for å analysere strømmedata og få sanntidsinnsikt. Du kan liste hendelsesstrømmene i arbeidsområdet ditt, få detaljer og definisjoner, opprette nye hendelsesstrømmer og mer.
Activator - Samhandle med Fabric Activator for å liste Activator-artefakter i arbeidsområdet ditt, lage trigger-handlinger og sette opp varsler.
Kart – Søk og administrer kartressurser for å visualisere data og lage geospatiale innsikter. Du kan liste kart i arbeidsområdet ditt, visualisere data på kart, få detaljer og definisjoner, lage nye kart og mer.
Bemerkning
Du kan også bruke Fabric RTI MCP Server til å kjøre KQL-spørringer mot klyngene i Azure Data Explorer backend.
Installere
For å installere den lokale RTI MCP-serveren, følg de åpen kilde instruksjonene i RTI MCP-serveren-arkivet. Arkivet inkluderer dokumentasjon om installasjon, konfigurasjon og bruk av MCP-serveren med RTI.