Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Met Model Context Protocol (MCP) in Real-Time Intelligence (RTI) kunnen AI-modellen, AI-agents en toepassingen communiceren met Fabric RTI-onderdelen met natuurlijke taal.
Het Model Context Protocol (MCP) biedt een gestandaardiseerde manier voor AI-modellen, zoals Azure OpenAI-modellen, om externe hulpprogramma's en gegevensbronnen te detecteren en te gebruiken. MET MCP kunt u eenvoudiger intelligente toepassingen bouwen die realtime gegevens kunnen opvragen, redeneren en er actie op kunnen ondernemen. MCP maakt het ook eenvoudiger voor AI-agents om bedrijfsgegevens te vinden, er verbinding mee te maken en te gebruiken.
de Real-Time Intelligence van Fabric biedt twee typen MCP-servers: lokaal en extern. Elke optie heeft verschillende implementatiemodellen, mogelijkheden en use cases.
Lokale MCP-server voor RTI
De lokale MCP-server voor Fabric Real-Time Intelligence is een opensource-server die u zelf installeert, host en beheert. Deze wordt uitgevoerd op uw lokale computer en biedt alleen-lezentoegang tot Fabric RTI- en Azure Data Explorer (ADX)-resources.
Belangrijkste kenmerken:
- Implementatie: Zelf-hosten op uw lokale computer
- Source: Open-source op GitHub
- Access: alleen-lezen queries voor Eventhouse-, Eventstream-, Map- en Azure Data Explorer- (ADX) clusters.
- Beheer: u beheert de installatie, updates en onderhoud
Zie Aan de slag met de lokale MCP-server voor gedetailleerde informatie.
Externe MCP-servers
Externe MCP-servers worden gehost door Microsoft en zijn beschikbaar als HTTP-eindpunten. U configureert uw MCP-client om verbinding te maken met deze servers zonder software te installeren of te beheren.
| Server | Beschrijving | Mogelijkheden |
|---|---|---|
| Eventhouse MCP-server | Hiermee kunnen AI-agents query's uitvoeren op Eventhouse met behulp van natuurlijke taal | Schemadetectie, KQL-querygeneratie, gegevenssampling, natuurlijke taal naar KQL-vertaling |
| Activator MCP-server | Hiermee kunnen AI-agents communiceren met Fabric Activator | Monitoringregels maken, waarschuwingen beheren, acties activeren |
- MCP-host: de omgeving waarin het AI-model (zoals GPT-4, Claude of Gemini) wordt uitgevoerd.
- MCP Client: Een intermediaire service stuurt de aanvragen van het AI-model door naar MCP-servers, zoals GitHub Copilot, Cline of Claude Desktop.
- MCP Server: kleine toepassingen die specifieke functies toegankelijk maken voor AI-modellen, zoals het uitvoeren van databasequery's. Fabric RTI MCP-server kan bijvoorbeeld KQL-query's uitvoeren voor het ophalen van realtime gegevens uit KQL-databases.
- Aan de slag met de externe MCP-server voor Eventhouse
- Aan de slag met de externe MCP-server voor Activator
Wanneer lokale versus externe servers gebruiken
Interfaces voor natuurlijke taal: Stel vragen in gewoon Engels of andere talen en het systeem verandert in geoptimaliseerde query's (NL2KQL- Natuurlijke taal naar Kusto Query Language).
| Scenario | Aanbevolen optie |
|---|---|
| Query's uitvoeren op Eventhouse- of ADX-gegevens met volledige controle over de server | Lokale MCP-server |
| Query's uitvoeren op Eventhouse zonder serverinfrastructuur te beheren | Remote Eventhouse MCP |
| Bewakingsregels en -waarschuwingen maken in Activator | Afstandsactivator MCP |
| Gebruiken in cloudagentplatforms zoals Copilot Studio of Azure AI Foundry | Externe MCP-servers |
| Offline- of air-gapped-toegang nodig | Lokale MCP-server |
| Wilt automatische updates en onderhoud | Externe MCP-servers |
Ondersteunde AI-clients
Zowel lokale als externe MCP-servers werken met populaire AI-clients:
Ondersteunde RTI-onderdelen
Eventhouse : KQL-query's uitvoeren op de KQL-databases in uw Eventhouse-back-end . Met deze geïntegreerde interface kunnen AI-agents uw realtime gegevens doorzoeken, patronen analyseren en acties ondernemen op basis van wat ze vinden.
Opmerking
U kunt ook de Fabric RTI MCP-server gebruiken om KQL-query's uit te voeren op de clusters in uw Azure Data Explorer back-end.