Kom igång med den lokala MCP-servern för Real-Time Intelligence (förhandsversion)

Den lokala RTI MCP-servern låter AI-agenter eller AI-program interagera med Real-Time Intelligence (RTI) eller Azure Data Explorer (ADX) genom att tillhandahålla verktyg via MCP-gränssnittet. RTI MCP gör det enkelt att fråga och analysera data.

MCP-stödet för RTI och ADX är en komplett öppen källkods-MCP-server implementering för Microsoft Fabric Real-Time Intelligence (RTI). Kunder måste installera, vara värdar för och hantera distributionen.

Scenarier

Det vanligaste scenariot för att använda den lokala RTI MCP-servern är att ansluta till den från en befintlig AI-klient, till exempel Cline, Claude och GitHub Copilot. Klienten kan sedan använda alla tillgängliga verktyg för att komma åt och interagera med RTI- eller ADX-resurser med naturligt språk. Du kan till exempel använda GitHub Copilot-agent läge med RTI MCP-servern för att lista KQL-databaser eller ADX-kluster eller köra frågor på naturligt språk på RTI Eventhouses.

Arkitektur

Den lokala RTI MCP-servern är kärnan i systemet och fungerar som en brygga mellan AI-agenter och datakällor. Agenter skickar begäranden till MCP-servern, vilket översätter dem till Eventhouse-frågor. RTI MCP-servern körs lokalt och ger skrivskyddad åtkomst till Fabric.

Diagram som visar den lokala MCP-serverarkitekturen.

Den lokala RTI MCP-servern fungerar som en brygga mellan AI-baserade program och dina data i Fabric. Den körs lokalt och ger skrivskyddad åtkomst till Eventhouse-databaser.

Arkitekturen följer MCP-klientservermodellen:

  • MCP-värd: Programmet där AI-interaktioner sker. Till exempel Visual Studio Code med GitHub Copilot, Claude Desktop, Cline. Värdsystemet innehåller AI-modellanslutningen, en verktygsorkestrerare och en eller flera MCP-klienter.
  • MCP Server: En enkel tjänst som exponerar specifika funktioner som strukturerade verktyg. RTI MCP-servern exponerar verktyg som "utför sökning," "lista databaser," och "lista tabeller" som översätts till Eventhouse-åtgärder.

Alla program som stöder MCP kan ansluta till den lokala RTI MCP-servern med samma protokoll. Detta kan vara en interaktiv produkt som GitHub Copilot eller ett programmatiskt AI-agentramverk.

Viktiga funktioner

Real-Time Data Access: Hämta data från KQL-databaser på några sekunder.

Gränssnitt för naturligt språk: Ställ frågor på vanlig engelska eller andra språk, och systemet omvandlar dem till optimerade frågor (NL2KQL).

Schemaidentifiering: Identifiera schema och metadata så att du kan lära dig datastrukturer dynamiskt.

Plug-and-Play Integration: Anslut MCP-klienter som GitHub Copilot, Claude och Cline till RTI med minimal konfiguration på grund av standardiserade API:er och identifieringsmekanismer.

Slutsatsdragning för lokalt språk: Arbeta med dina data på önskat språk.

RTI-komponenter som stöds

Eventhouse – Kör KQL-frågor mot KQL-databaserna i Din Eventhouse-serverdel . Med det här enhetliga gränssnittet kan AI-agenter fråga efter, resonera och agera på realtidsdata.

Eventstreams – Fråga och hantera Eventstreams för att analysera strömmande data och få insikter i realtid. Du kan visa en lista över eventstreams på din arbetsyta, hämta information och definitioner, skapa nya eventstreams med mera.

Activator – Interagera med Fabric Activator för att lista Aktivatorartefakter på arbetsytan, skapa utlösaråtgärder och konfigurera meddelanden.

Karta – Fråga och hantera kartresurser för att visualisera data och skapa geospatiala insikter. Du kan visa kartor på din arbetsyta, visualisera data på kartor, få information och definitioner, skapa nya kartor med mera.

Anmärkning

Du kan också använda Fabric RTI MCP Server för att köra KQL-frågor mot klustren i Azure Data Explorer serverdel.

Installera

Om du vill installera den lokala RTI MCP-servern följer du open-source instruktioner på RTI MCP-servern lagringsplatsen. Lagringsplatsen innehåller dokumentation om installation, konfiguration och användning av MCP-servern med RTI.