Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Model Context Protocol (MCP) em Real-Time Intelligence (RTI) permite que modelos de IA, agentes de IA e aplicações interajam com os componentes do Fabric RTI usando linguagem natural.
O Model Context Protocol (MCP) fornece uma forma padronizada para que modelos de IA, como Azure modelos OpenAI, descubram e utilizem ferramentas e fontes de dados externas. O MCP facilita a construção de aplicações inteligentes que podem consultar, raciocinar e agir com base em dados em tempo real. O MCP também facilita a identificação, ligação e utilização de dados empresariais por agentes de IA.
A Real-Time Intelligence da Fabric fornece dois tipos de servidores MCP: locais e remotos. Cada opção tem modelos de implementação, capacidades e casos de uso diferentes.
Servidor MCP local para RTI
O servidor MCP local para Fabric Real-Time Intelligence é um servidor open-source que instala, aloja e gere por si próprio. Corre na sua máquina local e fornece acesso apenas de leitura aos recursos Fabric RTI e Azure Data Explorer (ADX).
Principais características:
- Implementação: Autoalojada na sua máquina local
- Source: Open-source em GitHub
- Access: Consultas apenas de leitura para clusters Eventhouse, Eventstream, Map e Azure Data Explorer (ADX).
- Gestão: Geres a instalação, atualizações e manutenção
Para informações detalhadas, consulte Começar com o servidor MCP local.
Servidores MCP remotos
Os servidores MCP remotos são alojados pela Microsoft e estão disponíveis como endpoints HTTP. Configura o seu cliente MCP para se ligar a estes servidores sem instalar ou gerir qualquer software.
| Server | Descrição | Capabilities |
|---|---|---|
| Eventhouse MCP Servidor | Permite aos agentes de IA consultar o Eventhouse usando linguagem natural | Descoberta de esquemas, geração de consultas KQL, amostragem de dados, tradução de linguagem natural para KQL |
| Servidor MCP Ativador | Permite que agentes de IA interajam com o Fabric Activator | Criar regras de monitorização, gerir alertas, ativar ações |
- MCP Host: O ambiente onde o modelo de IA (como GPT-4, Claude ou Gemini) é executado.
- MCP Client: Um serviço intermediário encaminha os pedidos do modelo de IA para servidores MCP, como GitHub Copilot, Cline ou Claude Desktop.
- MCP Server: Pequenas aplicações que tornam funcionalidades específicas acessíveis a modelos de IA, como a execução de consultas à base de dados. Por exemplo, o servidor Fabric RTI MCP pode executar consultas KQL para recuperação de dados em tempo real a partir de bases de dados KQL.
- Comece com o servidor MCP remoto para a Eventhouse
- Comece a usar o servidor MCP remoto para o Activator
Quando usar servidores locais vs. remotos
Interfaces de Linguagem Natural: Faça perguntas em inglês simples ou noutras línguas, e o sistema transforma-as em consultas otimizadas (NL2KQL - Linguagem Natural para Linguagem de Consultas Kusto).
| Scenario | Opção recomendada |
|---|---|
| Consulta dados do Eventhouse ou ADX com controlo total sobre o servidor | Servidor MCP local |
| Consultar o Eventhouse sem gerir a infraestrutura do servidor | Remote Eventhouse MCP |
| Crie regras de monitorização e alertas no Ativador | Ativador Remoto MCP |
| Utilização em plataformas cloud agent como Copilot Studio ou Azure AI Foundry | Servidores MCP remotos |
| Necessita de acesso offline ou isolado | Servidor MCP local |
| Quero atualizações e manutenção automáticas | Servidores MCP remotos |
Clientes de IA suportados
Servidores MCP locais e remotos funcionam com clientes de IA populares:
Componentes RTI suportados
Eventhouse - Execute consultas KQL nos bancos de dados KQL no back-end do Eventhouse . Esta interface unificada permite aos agentes de IA pesquisar os seus dados em tempo real, analisar padrões e tomar ações com base no que encontram.
Observação
Também pode usar o Fabric RTI MCP Server para executar consultas KQL nos clusters do seu backend Azure Data Explorer.