Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Le protocole MCP (Model Context Protocol) dans Real-Time Intelligence (RTI) permet aux modèles IA, aux agents IA et aux applications d’interagir avec Fabric composants RTI à l’aide du langage naturel.
Le protocole Model Context Protocol (MCP) offre un moyen standardisé pour les modèles IA, comme Azure modèles OpenAI, de découvrir et d’utiliser des outils externes et des sources de données. MCP facilite la création d’applications intelligentes qui peuvent interroger, raisonner et agir sur des données en temps réel. MCP facilite également la recherche, la connexion et l’utilisation des données d’entreprise pour les agents IA.
Fabric intelligence Real-Time fournit deux types de serveurs MCP : local et distant. Chaque option a différents modèles de déploiement, fonctionnalités et cas d’usage.
Serveur MCP local pour RTI
Le serveur MCP local pour Fabric Real-Time Intelligence est un serveur open source que vous installez, hébergez et gérez vous-même. Il s’exécute sur votre ordinateur local et fournit un accès en lecture seule aux ressources Fabric RTI et Azure Data Explorer (ADX).
Principales caractéristiques :
- Déploiement : auto-hébergé sur votre ordinateur local
- Source : Open-source sur GitHub
- Access : requêtes en lecture seule sur les clusters Eventhouse, Eventstream, Map et Azure Data Explorer (ADX).
- Gestion : vous gérez l’installation, les mises à jour et la maintenance
Pour plus d’informations, consultez Prise en main du serveur MCP local.
Serveurs MCP distants
Les serveurs MCP distants sont hébergés par Microsoft et sont disponibles en tant que points de terminaison HTTP. Vous configurez votre client MCP pour vous connecter à ces serveurs sans installer ni gérer de logiciels.
| Serveur | Description | Capacités |
|---|---|---|
| Serveur MCP Eventhouse | Permet aux agents IA d’interroger Eventhouse à l’aide du langage naturel | Découverte de schémas, génération de requêtes KQL, échantillonnage des données, langage naturel en traduction KQL |
| Serveur activateur MCP | Permet aux agents IA d’interagir avec Fabric Activator | Créer des règles de surveillance, gérer des alertes, déclencher des actions |
- Hôte MCP : environnement dans lequel le modèle IA (tel que GPT-4, Claude ou Gemini) s’exécute.
- MCP Client : un service intermédiaire transfère les demandes du modèle IA aux serveurs MCP, tels que GitHub Copilot, Cline ou Claude Desktop.
- MCP Server : petites applications qui rendent des fonctionnalités spécifiques accessibles aux modèles IA, telles que l’exécution de requêtes de base de données. Par exemple, Fabric serveur RTI MCP peut exécuter des requêtes KQL pour la récupération de données en temps réel à partir de bases de données KQL.
- Prise en main du serveur MCP distant pour Eventhouse
- Mise en route du serveur MCP distant pour Activator
Quand utiliser des serveurs locaux ou distants
Interfaces en langage naturel : posez des questions en anglais brut ou d’autres langues, et le système les transforme en requêtes optimisées (NL2KQL- Natural Language to Kusto Query Language).
| Scénario | Option recommandée |
|---|---|
| Interroger des données Eventhouse ou ADX avec un contrôle total sur le serveur | Serveur MCP local |
| Query Eventhouse sans gérer l’infrastructure du serveur | Maison Distante d'Événements MCP |
| Créer des règles de surveillance et des alertes dans Activateor | MCP de l’activateur à distance |
| Utiliser dans des plateformes d’agent cloud telles que Copilot Studio ou Azure AI Foundry | Serveurs MCP distants |
| Besoin d'un accès hors connexion ou déconnecté du réseau | Serveur MCP local |
| Vous souhaitez des mises à jour automatiques et une maintenance | Serveurs MCP distants |
Clients IA pris en charge
Les serveurs MCP locaux et distants fonctionnent avec des clients IA populaires :
Composants RTI pris en charge
Eventhouse : exécutez des requêtes KQL sur les bases de données KQL dans votre serveur principal Eventhouse . Cette interface unifiée permet aux agents IA de rechercher vos données en temps réel, d’analyser des modèles et d’effectuer des actions en fonction de ce qu’ils trouvent.
Note
Vous pouvez également utiliser le serveur RTI MCP Fabric pour exécuter des requêtes KQL sur les clusters de votre back-end Azure Data Explorer.