Qu’est-ce que MCP dans Real-Time Intelligence ? (préversion)

Le protocole MCP (Model Context Protocol) dans Real-Time Intelligence (RTI) permet aux modèles IA, aux agents IA et aux applications d’interagir avec Fabric composants RTI à l’aide du langage naturel.

Le protocole Model Context Protocol (MCP) offre un moyen standardisé pour les modèles IA, comme Azure modèles OpenAI, de découvrir et d’utiliser des outils externes et des sources de données. MCP facilite la création d’applications intelligentes qui peuvent interroger, raisonner et agir sur des données en temps réel. MCP facilite également la recherche, la connexion et l’utilisation des données d’entreprise pour les agents IA.

Fabric intelligence Real-Time fournit deux types de serveurs MCP : local et distant. Chaque option a différents modèles de déploiement, fonctionnalités et cas d’usage.

Serveur MCP local pour RTI

Le serveur MCP local pour Fabric Real-Time Intelligence est un serveur open source que vous installez, hébergez et gérez vous-même. Il s’exécute sur votre ordinateur local et fournit un accès en lecture seule aux ressources Fabric RTI et Azure Data Explorer (ADX).

Principales caractéristiques :

  • Déploiement : auto-hébergé sur votre ordinateur local
  • Source : Open-source sur GitHub
  • Access : requêtes en lecture seule sur les clusters Eventhouse, Eventstream, Map et Azure Data Explorer (ADX).
  • Gestion : vous gérez l’installation, les mises à jour et la maintenance

Pour plus d’informations, consultez Prise en main du serveur MCP local.

Serveurs MCP distants

Les serveurs MCP distants sont hébergés par Microsoft et sont disponibles en tant que points de terminaison HTTP. Vous configurez votre client MCP pour vous connecter à ces serveurs sans installer ni gérer de logiciels.

Serveur Description Capacités
Serveur MCP Eventhouse Permet aux agents IA d’interroger Eventhouse à l’aide du langage naturel Découverte de schémas, génération de requêtes KQL, échantillonnage des données, langage naturel en traduction KQL
Serveur activateur MCP Permet aux agents IA d’interagir avec Fabric Activator Créer des règles de surveillance, gérer des alertes, déclencher des actions
  • Hôte MCP : environnement dans lequel le modèle IA (tel que GPT-4, Claude ou Gemini) s’exécute.
  • MCP Client : un service intermédiaire transfère les demandes du modèle IA aux serveurs MCP, tels que GitHub Copilot, Cline ou Claude Desktop.
  • MCP Server : petites applications qui rendent des fonctionnalités spécifiques accessibles aux modèles IA, telles que l’exécution de requêtes de base de données. Par exemple, Fabric serveur RTI MCP peut exécuter des requêtes KQL pour la récupération de données en temps réel à partir de bases de données KQL.

Quand utiliser des serveurs locaux ou distants

Interfaces en langage naturel : posez des questions en anglais brut ou d’autres langues, et le système les transforme en requêtes optimisées (NL2KQL- Natural Language to Kusto Query Language).

Scénario Option recommandée
Interroger des données Eventhouse ou ADX avec un contrôle total sur le serveur Serveur MCP local
Query Eventhouse sans gérer l’infrastructure du serveur Maison Distante d'Événements MCP
Créer des règles de surveillance et des alertes dans Activateor MCP de l’activateur à distance
Utiliser dans des plateformes d’agent cloud telles que Copilot Studio ou Azure AI Foundry Serveurs MCP distants
Besoin d'un accès hors connexion ou déconnecté du réseau Serveur MCP local
Vous souhaitez des mises à jour automatiques et une maintenance Serveurs MCP distants

Clients IA pris en charge

Les serveurs MCP locaux et distants fonctionnent avec des clients IA populaires :

Composants RTI pris en charge

Eventhouse : exécutez des requêtes KQL sur les bases de données KQL dans votre serveur principal Eventhouse . Cette interface unifiée permet aux agents IA de rechercher vos données en temps réel, d’analyser des modèles et d’effectuer des actions en fonction de ce qu’ils trouvent.

Note

Vous pouvez également utiliser le serveur RTI MCP Fabric pour exécuter des requêtes KQL sur les clusters de votre back-end Azure Data Explorer.