O que é MCP em Inteligência em Tempo Real? (pré-visualização)

Model Context Protocol (MCP) em Real-Time Intelligence (RTI) permite que modelos de IA, agentes de IA e aplicações interajam com os componentes do Fabric RTI usando linguagem natural.

O Model Context Protocol (MCP) fornece uma forma padronizada para que modelos de IA, como Azure modelos OpenAI, descubram e utilizem ferramentas e fontes de dados externas. O MCP facilita a construção de aplicações inteligentes que podem consultar, raciocinar e agir com base em dados em tempo real. O MCP também facilita a identificação, ligação e utilização de dados empresariais por agentes de IA.

A Real-Time Intelligence da Fabric fornece dois tipos de servidores MCP: locais e remotos. Cada opção tem modelos de implementação, capacidades e casos de uso diferentes.

Servidor MCP local para RTI

O servidor MCP local para Fabric Real-Time Intelligence é um servidor open-source que instala, aloja e gere por si próprio. Corre na sua máquina local e fornece acesso apenas de leitura aos recursos Fabric RTI e Azure Data Explorer (ADX).

Principais características:

  • Implementação: Autoalojada na sua máquina local
  • Source: Open-source em GitHub
  • Access: Consultas apenas de leitura para clusters Eventhouse, Eventstream, Map e Azure Data Explorer (ADX).
  • Gestão: Geres a instalação, atualizações e manutenção

Para informações detalhadas, consulte Começar com o servidor MCP local.

Servidores MCP remotos

Os servidores MCP remotos são alojados pela Microsoft e estão disponíveis como endpoints HTTP. Configura o seu cliente MCP para se ligar a estes servidores sem instalar ou gerir qualquer software.

Server Descrição Capabilities
Eventhouse MCP Servidor Permite aos agentes de IA consultar o Eventhouse usando linguagem natural Descoberta de esquemas, geração de consultas KQL, amostragem de dados, tradução de linguagem natural para KQL
Servidor MCP Ativador Permite que agentes de IA interajam com o Fabric Activator Criar regras de monitorização, gerir alertas, ativar ações
  • MCP Host: O ambiente onde o modelo de IA (como GPT-4, Claude ou Gemini) é executado.
  • MCP Client: Um serviço intermediário encaminha os pedidos do modelo de IA para servidores MCP, como GitHub Copilot, Cline ou Claude Desktop.
  • MCP Server: Pequenas aplicações que tornam funcionalidades específicas acessíveis a modelos de IA, como a execução de consultas à base de dados. Por exemplo, o servidor Fabric RTI MCP pode executar consultas KQL para recuperação de dados em tempo real a partir de bases de dados KQL.

Quando usar servidores locais vs. remotos

Interfaces de Linguagem Natural: Faça perguntas em inglês simples ou noutras línguas, e o sistema transforma-as em consultas otimizadas (NL2KQL - Linguagem Natural para Linguagem de Consultas Kusto).

Scenario Opção recomendada
Consulta dados do Eventhouse ou ADX com controlo total sobre o servidor Servidor MCP local
Consultar o Eventhouse sem gerir a infraestrutura do servidor Remote Eventhouse MCP
Crie regras de monitorização e alertas no Ativador Ativador Remoto MCP
Utilização em plataformas cloud agent como Copilot Studio ou Azure AI Foundry Servidores MCP remotos
Necessita de acesso offline ou isolado Servidor MCP local
Quero atualizações e manutenção automáticas Servidores MCP remotos

Clientes de IA suportados

Servidores MCP locais e remotos funcionam com clientes de IA populares:

Componentes RTI suportados

Eventhouse - Execute consultas KQL nos bancos de dados KQL no back-end do Eventhouse . Esta interface unificada permite aos agentes de IA pesquisar os seus dados em tempo real, analisar padrões e tomar ações com base no que encontram.

Observação

Também pode usar o Fabric RTI MCP Server para executar consultas KQL nos clusters do seu backend Azure Data Explorer.