Wat is MCP in Real-Time Intelligence? (voorvertoning)

Met Model Context Protocol (MCP) in Real-Time Intelligence (RTI) kunnen AI-modellen, AI-agents en toepassingen communiceren met Fabric RTI-onderdelen met natuurlijke taal.

Het Model Context Protocol (MCP) biedt een gestandaardiseerde manier voor AI-modellen, zoals Azure OpenAI-modellen, om externe hulpprogramma's en gegevensbronnen te detecteren en te gebruiken. MET MCP kunt u eenvoudiger intelligente toepassingen bouwen die realtime gegevens kunnen opvragen, redeneren en er actie op kunnen ondernemen. MCP maakt het ook eenvoudiger voor AI-agents om bedrijfsgegevens te vinden, er verbinding mee te maken en te gebruiken.

de Real-Time Intelligence van Fabric biedt twee typen MCP-servers: lokaal en extern. Elke optie heeft verschillende implementatiemodellen, mogelijkheden en use cases.

Lokale MCP-server voor RTI

De lokale MCP-server voor Fabric Real-Time Intelligence is een opensource-server die u zelf installeert, host en beheert. Deze wordt uitgevoerd op uw lokale computer en biedt alleen-lezentoegang tot Fabric RTI- en Azure Data Explorer (ADX)-resources.

Belangrijkste kenmerken:

  • Implementatie: Zelf-hosten op uw lokale computer
  • Source: Open-source op GitHub
  • Access: alleen-lezen queries voor Eventhouse-, Eventstream-, Map- en Azure Data Explorer- (ADX) clusters.
  • Beheer: u beheert de installatie, updates en onderhoud

Zie Aan de slag met de lokale MCP-server voor gedetailleerde informatie.

Externe MCP-servers

Externe MCP-servers worden gehost door Microsoft en zijn beschikbaar als HTTP-eindpunten. U configureert uw MCP-client om verbinding te maken met deze servers zonder software te installeren of te beheren.

Server Beschrijving Mogelijkheden
Eventhouse MCP-server Hiermee kunnen AI-agents query's uitvoeren op Eventhouse met behulp van natuurlijke taal Schemadetectie, KQL-querygeneratie, gegevenssampling, natuurlijke taal naar KQL-vertaling
Activator MCP-server Hiermee kunnen AI-agents communiceren met Fabric Activator Monitoringregels maken, waarschuwingen beheren, acties activeren
  • MCP-host: de omgeving waarin het AI-model (zoals GPT-4, Claude of Gemini) wordt uitgevoerd.
  • MCP Client: Een intermediaire service stuurt de aanvragen van het AI-model door naar MCP-servers, zoals GitHub Copilot, Cline of Claude Desktop.
  • MCP Server: kleine toepassingen die specifieke functies toegankelijk maken voor AI-modellen, zoals het uitvoeren van databasequery's. Fabric RTI MCP-server kan bijvoorbeeld KQL-query's uitvoeren voor het ophalen van realtime gegevens uit KQL-databases.

Wanneer lokale versus externe servers gebruiken

Interfaces voor natuurlijke taal: Stel vragen in gewoon Engels of andere talen en het systeem verandert in geoptimaliseerde query's (NL2KQL- Natuurlijke taal naar Kusto Query Language).

Scenario Aanbevolen optie
Query's uitvoeren op Eventhouse- of ADX-gegevens met volledige controle over de server Lokale MCP-server
Query's uitvoeren op Eventhouse zonder serverinfrastructuur te beheren Remote Eventhouse MCP
Bewakingsregels en -waarschuwingen maken in Activator Afstandsactivator MCP
Gebruiken in cloudagentplatforms zoals Copilot Studio of Azure AI Foundry Externe MCP-servers
Offline- of air-gapped-toegang nodig Lokale MCP-server
Wilt automatische updates en onderhoud Externe MCP-servers

Ondersteunde AI-clients

Zowel lokale als externe MCP-servers werken met populaire AI-clients:

Ondersteunde RTI-onderdelen

Eventhouse : KQL-query's uitvoeren op de KQL-databases in uw Eventhouse-back-end . Met deze geïntegreerde interface kunnen AI-agents uw realtime gegevens doorzoeken, patronen analyseren en acties ondernemen op basis van wat ze vinden.

Opmerking

U kunt ook de Fabric RTI MCP-server gebruiken om KQL-query's uit te voeren op de clusters in uw Azure Data Explorer back-end.