Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Microsoft Fabric fournit des outils pour l’analytique avancée, le Machine Learning (ML) et l’opérationnalisation du modèle IA, dans une plateforme unifiée unique. La charge de travail Science des données est conçue pour permettre aux scientifiques et aux analystes de données d’explorer, de préparer et d’analyser des données, de créer et de suivre les modèles ML et d’opérationnaliser les flux de travail IA. Fabric IQ Data Agents, Operations Agents et Copilot dans Power BI améliorent l’interaction avec les données par le biais d’actions basées sur le langage naturel, l’automatisation et les insights.
Cet article porte sur les points suivants :
- Agents IA pour l’analytique conversationnelle et l’automatisation opérationnelle
- Flux de travail de science des données pour l’entraînement, le suivi et le déploiement des modèles
- Options d’accès développeur et utilisateur avec GraphQL et Copilot
Agents d’IA
Les agents IA dans Microsoft Fabric aident les équipes à passer de la création de rapports passifs à un support décisionnel actif. Les agents de données facilitent l’exploration des données régies par le biais de questions en langage naturel, tandis que les agents d’exploitation surveillent les conditions métier et déclenchent des actions lorsque des règles sont remplies. Ensemble, ils connectent les insights et l’automatisation afin que les équipes puissent répondre plus rapidement, réduire les efforts manuels et prendre des décisions avec plus de contexte.
Agent de données
Les agents de données Fabric autorisent le Q&A conversationnel sur les données d’entreprise à l’aide de l’IA générative. Les utilisateurs peuvent poser des questions simples en anglais et obtenir des réponses structurées, sécurisées et en lecture seule sans avoir besoin de SQL, DAX ou KQL. Les agents de données utilisent les API de l’Assistant Azure OpenAI pour identifier les sources de données OneLake pertinentes, notamment Lakehouses, Warehouses, modèles sémantiques Power BI, bases de données KQL et ontologies. Vous pouvez configurer des agents avec des instructions personnalisées, des exemples et des conseils spécifiques au domaine pour améliorer la pertinence de la réponse.
Les agents de données s’intègrent à Microsoft Foundry, Copilot Studio et Microsoft 365 Copilot pour étendre les fonctionnalités de l’analytique conversationnelle aux flux de travail IA :
Foundry IQ fournit une couche de contexte partagée où les agents de données contribuent à des insights métier structurés en même temps que d’autres agents, ce qui permet le raisonnement multistep et l’orchestration entre les systèmes d’entreprise.
Copilot Studio vous permet d’incorporer ces agents en tant que compétences personnalisées dans Teams, applications web ou applications métier, en injectant le contexte métier en direct dans les invites Copilot et en combinant Q&A avec l’automatisation des flux de travail.
L’intégration à Microsoft 365 Copilot permet à ces agents de faire apparaître des insights basés sur l’ontologie directement dans des outils de productivité tels qu’Outlook, Excel et Teams, en combinant l’analytique conversationnelle avec l’automatisation des flux de travail.
Agent d’opérations
Les agents d’exploitation sont des composants IA autonomes et basés sur l’ontologie qui surveillent les flux de données en temps réel, interprètent les événements et exécutent ou recommandent des actions. Ils utilisent l’ontologie pour appliquer des règles et des objectifs, ce qui permet une prise de décision proactive plutôt que des réponses réactives. Ils s’intègrent à Activateor et Power Automate pour déclencher des flux de travail dans ERP, CRM et d’autres systèmes, tandis que Teams fournit des alertes et des approbations humaines. Contrairement aux agents de données, qui se concentrent sur la réponse aux questions, les agents d’exploitation agissent en permanence sur des conditions dynamiques, en apprenant à partir de résultats pour améliorer les décisions futures et transformer les opérations en automatisation adaptative et prenant en charge le contexte.
Le diagramme suivant montre comment les agents de données et les agents d’exploitation dans Fabric IQ utilisent des services d’automatisation et de données d’entreprise régis pour fournir des insights et déclencher des actions.
Choisir entre les agents de données et les agents d’opérations
Les agents de données et les agents d’exploitation dans Microsoft Fabric IQ servent des rôles distincts. Les agents de données fournissent des analyses conversationnelles en répondant aux questions des utilisateurs en langage naturel, en utilisant l’ontologie pour la mise au point sémantique et l’interrogation de plusieurs sources telles que Lakehouses, Warehouses et les modèles Power BI. Ils s’intègrent en externe via Teams, Copilot Studio et des applications personnalisées pour la livraison des insights.
En revanche, les agents d’exploitation se concentrent sur la prise de décision autonome. Ils surveillent les flux de données en temps réel par rapport aux règles basées sur l’ontologie pour déclencher ou recommander des actions. Ils s’intègrent à Power Automate (via Activateur), Teams pour les alertes et les approbations et les systèmes opérationnels externes tels que ERP ou CRM. Les agents de données démocratisent l’accès aux données pour obtenir des insights, tandis que les agents d’exploitation pilotent l’automatisation proactive et régie pour l’optimisation opérationnelle.
Flux de travail de science des données
Fabric Data Science couvre le cycle de vie complet du ML : exploration de données, préparation, expérimentation de modèle, suivi, déploiement et consommation. Les outils dont vous avez besoin incluent des notebooks, Apache Spark, MLflow et AutoML, tous au sein d’une plateforme unifiée. Les scientifiques des données peuvent développer et opérationnaliser des modèles ML en même temps que des ingénieurs et analystes de données en un seul endroit.
Suivre des expériences avec MLflow
Les Expériences dans Microsoft Fabric organisent et suivent les exécutions d'entraînement de modèles. Une expérience dans Fabric fonctionne comme une expérience MLflow, elle contient une collection d’exécutions, où chaque exécution est une exécution de code d’entraînement de modèle. Étant donné que Fabric s’intègre à MLflow, chaque exécution peut journaliser automatiquement les informations pertinentes telles que les hyperparamètres, les métriques, les balises, la version du code et les éléments de sortie sans nécessiter de code de journalisation personnalisé. Le suivi MLflow est nativement intégré aux notebooks et aux travaux Spark de Fabric, pour que les scientifiques des données puissent utiliser les API MLflow ou l'interface utilisateur de Fabric pour créer des expériences et enregistrer des exécutions.
Inscrire et déployer des modèles ML
Les modèles ML dans Fabric sont des modèles Machine Learning inscrits. La gestion des modèles de Fabric utilise des registres MLflow pour stocker, version et suivre des modèles. Après avoir sélectionné la meilleure exécution de l’expérience, inscrivez le modèle dans Fabric pour stocker les métadonnées telles que les hyperparamètres, les métriques et les détails de l’environnement. Les modèles sont enregistrés dans un format MLflow standardisé, qui permet l’interopérabilité entre les environnements Spark et Python.
Les modèles peuvent être déployés pour le scoring par lots dans Spark ou via des points de terminaison en temps réel pour des prédictions à faible latence.
Le diagramme suivant montre le flux de travail de science des données de bout en bout dans Fabric, de la préparation et de l’expérimentation des données à l’inscription et au déploiement du modèle.
Accès aux données des développeurs avec GraphQL
L’API pour GraphQL fournit un point de terminaison unique et flexible pour interroger plusieurs sources de données Fabric, notamment Warehouses, SQL Databases, Lakehouses et les bases de données mises en miroir. Il prend en charge la découverte de schémas, les requêtes générées, la modélisation des relations et les tests de requête interactifs. Il facilite l’exposition de tables, vues et champs spécifiques tout en activant un accès rapide et piloté par le client aux données dans les environnements Fabric.
Copilot dans Power BI
Copilot dans Power BI permet l’interaction des données en langage naturel. Les utilisateurs peuvent explorer des données, générer des insights, créer des visuels et générer des expressions DAX.
L’expérience Copilot autonome prend en charge l’analyse conversationnelle inter-éléments, en sélectionnant automatiquement une source de données pertinente telle qu’un rapport, un modèle sémantique ou un agent de données Fabric auquel les utilisateurs peuvent accéder. Il pose des questions précises si nécessaire et peut fournir immédiatement des insights une fois qu’il sélectionne le bon rapport ou modèle. La préparation des données pour l’IA et l’approbation de modèles sémantiques améliore la précision et garantit des réponses de haute qualité.