Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
La génération augmentée par récupération (RAG) dans Microsoft Copilot Studio combine les capacités de raisonnement des modèles linguistiques en combinaison avec des connaissances fiables et spécifiques à l’organisation. Il permet aux agents de produire des réponses précises, contextuelles et ancrées, basées sur le contenu de l’entreprise plutôt que de se reposer uniquement sur la mémoire du modèle.
Dans cet article, vous allez apprendre à :
- Comprenez comment RAG améliore la fiabilité et la stabilité de l’IA.
- Décrivez comment Copilot Studio récupère et synthétise les connaissances.
- Identifiez les sources de connaissances supportées et leurs contraintes.
- Reconnaissez les considérations de gouvernance, de conformité et de sécurité de l’IA.
- Appliquer les concepts RAG lors de la conception d’agents dans des environnements d’entreprise.
Présentation de RAG
RAG est un modèle de conception qui améliore la précision de l’IA en combinant deux capacités :
- Recherche d’information : recherche dans les sources de données d’entreprise.
- Génération de texte : Synthétiser les informations récupérées à l’aide d’un modèle de langage.
Cette approche réduit les informations incorrectes, augmente la confiance et génère des réponses ancrées dans un contenu organisationnel réel.
Architecture RAG dans Copilot Studio
La pipeline RAG de Copilot Studio repose sur les services Azure AI et s'intègre étroitement dans le cadre de confiance, de conformité et de sécurité de Microsoft.
Composants principaux :
- Copilot Studio runtime : gère le pipeline conversationnel
- Moteur d’optimisation des requêtes : Réécrit et interprète les requêtes
- fournisseurs de recherche : Bing, SharePoint, Graph, Dataverse, Recherche Azure AI
- Moteur de synthèse : Crée des réponses ancrées et citées
- Couches de modération : Valide les messages et les résumés
- Mémoire d’État : mémoire à court terme (moins de 30 jours ; non utilisée pour la formation)
- Magasins de télémétrie et de retours : Fournit des perspectives et un contrôle
Fonctionnement de RAG dans Copilot Studio
RAG dans Copilot Studio suit un processus en quatre étapes :
- Réécriture des requêtes
- Récupération de contenu
- Résumé et génération de réponses
- Validation de la sécurité et de la gouvernance
1. Réécriture des requêtes
Copilot Studio optimise la question de l'utilisateur avant de rechercher :
- Clarifie le sens
- Ajoute des signaux contextuels (les 10 derniers tours)
- Améliore la correspondance par mots-clés
- Génère des requêtes adaptées à la recherche
Ce processus améliore la qualité de la récupération et réduit les résultats non pertinents.
2. Récupération de contenu
Après réécriture de la requête, le système l’exécute sur toutes les sources de connaissances que vous avez configurées. Copilot Studio obtient les trois premiers résultats de chaque source, en équilibrant la pertinence avec les performances. Le comportement de chaque source de connaissances varie selon des facteurs tels que l’authentification, l’indexation, les formats de fichiers et les contraintes de stockage.
Le tableau suivant résume toutes les sources de connaissances prises en charge ainsi que leurs capacités, contraintes et exigences d’authentification :
| Source de connaissances | Description | Authentification | Capacités clés, limites et contraintes |
|---|---|---|---|
| Données publiques (sites web) | Sites indexés par Bing | Aucun |
|
| SharePoint / OneDrive | Contenu interne de l’entreprise (uniquement interne) | Microsoft Entra ID authentification par délégation |
|
| Fichiers téléchargés | Fichiers téléchargés dans le stockage Dataverse | Aucun |
|
| Tables Dataverse | Dossiers d’entreprise structurés (uniquement internes) | Microsoft Entra ID authentification par délégation |
|
| Connecteurs graphiques | Applications d’entreprise indexées en Microsoft Graph (internes uniquement) | Microsoft Entra ID authentification par délégation |
|
| Connecteurs temps réel | Données en direct provenant de systèmes comme Salesforce, Zendesk, SQL (uniquement en interne) | L’utilisateur doit être connecté |
|
| Recherche Azure AI | Recherche sémantique basée sur le vecteur | Point de terminaison configuré |
|
| Données personnalisées | Données fournies via des API, des flux ou une logique personnalisée | Aucun |
|
3. Synthèse et génération de réponses
- L’IA synthétise le contenu récupéré
- Applique des instructions personnalisées pour le ton, la mise en forme, la sécurité ou la concision
- Génère des citations des données sous-jacentes
- Personnalise les réponses en utilisant le contexte utilisateur (comme la langue, le département ou la région)
4. Validation de la sécurité et de la gouvernance
Chaque réponse passe par des couches de validation automatisées :
- Modération des réponses nuisibles, malveillantes, non conformes ou protégées par le droit d’auteur
- Validation de base et suppression des informations incorrectes
Aucune donnée client ne forme les modèles de langage.
Considérations clés lors de l’utilisation de RAG
RAG fonctionne mieux pour des questions et réponses factuelles, pas pour une analyse documentaire approfondie.
RAG est idéal pour :
- Répondre aux questions issues de bases de connaissances
- Résumé des politiques, des FAQ et du contenu procédural
- Récupérer des faits spécifiques à partir de fichiers ou de systèmes internes
RAG n’est pas destiné à :
- Comparaison complète des documents
- Évaluation de la conformité aux politiques
- Raisonnement complexe sur de longs documents non structurés
Considérations de sécurité et de conformité en IA générative
Les fonctionnalités d’IA générative dans Microsoft Copilot Studio sont conçues pour fournir des fonctionnalités de conversation et de raisonnement puissantes tout en conservant des contrôles de sécurité, de confidentialité et de conformité forts.
Modèles de fondation et hébergement
- Copilot Studio s’appuie sur des modèles de base entraînés par OpenAI.
- Copilot Studio utilise l’un des derniers modèles OpenAI pour les réponses génératives.
- Les modèles s’exécutent entièrement sur les services internes d'Azure AI Foundry, alignés sur le périmètre de confiance des services Microsoft.
- Toute utilisation des modèles respecte les principes et politiques de Microsoft Responsible AI .
Instructions personnalisées
Les créateurs peuvent fournir des instructions personnalisées pour façonner le comportement du modèle, influencer le ton ou ajouter des règles de mise en forme. Ces instructions aident à adapter les réponses génératives aux besoins de l’organisation tout en respectant les filtres de sécurité et les contrôles de conformité.
Traitement et stockage de données
- Data storage and processing dans Copilot Studio peut déplacer des données entre les limites régionales lorsque l'hébergement de modèle local n'est pas disponible.
- Lorsque ce déplacement de données n'est pas autorisé, les administrateurs peuvent utiliser les paramètres d'environnement pour désactiver des fonctionnalités spécifiques telles que Azure modèles linguistiques ou Recherche Bing.
- Copilot Studio ne collecte ni n'utilise aucune donnée client pour les modèles de langage d'apprentissage.
Gestion des données opérationnelles
- Pendant le fonctionnement, le système stocke temporairement les conversations dans un magasin sécurisé exploité par Microsoft.
- L’accès du personnel autorisé Microsoft est restreint via des stations de travail d’accès sécurisé (SAW) avec contrôles Just-In-Time (JIT).
- Les organisations peuvent également contrôler l’accès via Customer Lockbox, nécessitant une approbation explicite avant que les ingénieurs du support Microsoft puissent consulter les données.
Dépannage de la télémétrie
- Les fonctionnalités d’IA générative génèrent des données supplémentaires de dépannage, mais uniquement pour les actions initiées par le créateur dans le panneau de Test, notamment lorsque le créateur donne un pouce levé ou un pouce baissé à une réponse.
- Aucune donnée client supplémentaire n’est enregistrée en dehors de cette boucle de rétroaction explicite.
Surveillance des abus et sécurité
Étant donné que plusieurs couches de sécurité protègent déjà les fonctionnalités d'intelligence artificielle générative, Copilot Studio désactive la surveillance des abus d'IA d'Azure pour éviter la journalisation supplémentaire des données client.