Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
S’applique à : Dynamics 365 Contact Center - intégré, Dynamics 365 Contact Center - autonome et Dynamics 365 Customer Service
Cet article FAQ vous aide à répondre aux questions relatives à l’utilisation responsable de l’IA dans les fonctionnalités Copilot du service clientèle.
Définition de Copilot dans Dynamics 365 Customer Service
Copilot est un outil basé sur l’IA qui transforme l’expérience du représentant du service clientèle (représentant du service ou représentant) dans Dynamics 365 Customer Service. Il fournit une assistance basée sur l’IA en temps réel qui aide les représentants à résoudre les problèmes plus rapidement, à gérer les cas plus efficacement et à automatiser les tâches de routine afin qu’ils puissent se concentrer sur la fourniture d’un service client de haute qualité.
Quelles sont les capacités des systèmes ?
Copilot offre les principales fonctionnalités suivantes :
Ask une question : le premier onglet que les représentants du service voient lorsqu’ils activent le volet d’aide Copilot. Il s’agit d’une interface conversationnelle avec Copilot, qui permet de fournir des réponses contextuelles aux questions des représentants. Les réponses de Copilot sont basées sur des sources de connaissances internes et externes fournies par votre organisation lors de la configuration.
Writez un e-mail : le deuxième onglet du volet d’aide Copilot permet aux représentants de créer rapidement des réponses par e-mail en fonction du contexte du cas, ce qui réduit le temps nécessaire aux utilisateurs pour créer des e-mails.
Analyser les sentiments de messagerie : détecte si un e-mail client exprime des sentiments positifs, négatifs ou neutres. Ce point de vue aide les représentants à comprendre le ton et à répondre plus efficacement. Cette fonctionnalité s’applique uniquement aux e-mails clients entrants et ne déduit pas des émotions spécifiques. Elle n’évalue pas les performances représentatives et ne doit pas être utilisée comme seule entrée pour la gestion des performances des représentants du service à la clientèle. Toute utilisation des données de sentiment pour l’évaluation doit inclure la surveillance humaine.
Rédiger une réponse de conversation instantanée : permet aux représentants de créer une réponse en un seul clic à la conversation de messagerie numérique en cours à partir de sources de connaissances configurées par votre organisation.
Résumer un incident : Copilot fournit aux représentants un résumé d’un incident directement sur le formulaire d’incident, afin qu’ils puissent rapidement rattraper les détails importants d’un incident.
Résumer une conversation : Copilot fournit aux représentants un résumé d’une conversation à des moments clés tout au long du parcours du client, tels que les transferts de représentants virtuels, les transferts et à la demande.
Générer un brouillon de connaissance à partir du dossier (aperçu) : Copilot génère un brouillon d'article de connaissance comme proposition basée sur les informations du dossier. Les représentants peuvent examiner et affiner le brouillon en donnant des instructions de révision à Copilot, puis l’enregistrer.
Summarize un enregistrement personnalisé : Copilot fournit un résumé d’un enregistrement à l’aide de champs configurés par un administrateur pour la table personnalisée. Ce résumé permet aux représentants de comprendre rapidement les détails clés d’un enregistrement de support.
Générer des notes de résolution : Copilot fournit aux représentants un résumé des détails de l’incident, des courriers électroniques et des notes liés à l’incident dans l’onglet Poser une question, afin qu’ils puissent fermer rapidement le cas ou l’incident.
Prévision à l’aide d’une sélection de méthode optimale basée sur l’IA (préversion) : améliore les scénarios de prévision en recommandant et en appliquant intelligemment la méthode la plus appropriée en fonction des entrées de scénario. Les administrateurs peuvent choisir pendant l’installation et choisir entre l’approche traditionnelle et l’option basée sur l’IA. Les superviseurs peuvent également exécuter des prévisions à la demande au lieu d’attendre des exécutions planifiées, ce qui donne aux équipes une flexibilité et des insights plus rapides.
Quelle est l’utilisation prévue du système ?
Copilot dans le service clientèle est destiné à aider les représentants du service clientèle à travailler plus efficacement et efficacement. Les représentants du service clientèle peuvent utiliser les réponses basées sur les connaissances de Copilot pour gagner du temps lors de la recherche d’articles de connaissances et de la rédaction de réponses. Les résumés Copilot sont conçus pour aider les représentants à se familiariser rapidement avec les incidents et les conversations. Le contenu généré par Copilot dans Customer Service n’est pas destiné à être utilisé sans examen ou supervision humaine.
Comment évalue-t-on Copilot in Customer Service ? Quelles mesures sont utilisées pour évaluer les performances ?
Copilot dans le service clientèle est évalué par rapport aux scénarios clients réels tout au long de ses phases de conception, de développement et de mise en production. À l’aide d’une combinaison de recherches et d’études d’impact métier, nous évaluons des mesures quantitatives et qualitatives pour Copilot, notamment la précision, l’utilité et la confiance représentative. Pour en savoir plus, consultez Rapport de transparence de l’IA responsable.
Quelles sont les limites de Copilot dans Customer Service ? Comment les utilisateurs peuvent-ils minimiser l’impact des limitations de Copilot ?
Les fonctionnalités basées sur les connaissances de Copilot, telles que poser une question, écrire un e-mail et rédiger une réponse de chat, dépendent d’articles de fond de haute qualité et mis à jour. Sans ces articles de la base de connaissances, les utilisateurs sont plus susceptibles de rencontrer des réponses Copilot qui ne sont pas factuelles.
Pour réduire le risque de réponses nonfactuelles, Microsoft utilise de solides pratiques de gestion des connaissances. Ces pratiques permettent de s’assurer que les connaissances commerciales connectées à Copilot restent exactes et à jour.
Quels facteurs et paramètres opérationnels permettent une utilisation efficace et responsable du système ?
Toujours vérifier les résultats de Copilot
Copilot est construit sur la technologie des grands modèles de langage, qui est de nature probabiliste. Lorsqu’il est présenté avec un morceau de texte d’entrée, le modèle calcule la probabilité de chaque mot dans ce texte compte tenu des mots qui l’ont précédé. Le modèle choisit ensuite le mot qui est le plus susceptible de suivre. Cependant, puisque le modèle est basé sur des probabilités, il ne peut pas dire avec une certitude absolue quel est le mot suivant correct. Au lieu de cela, il donne sa meilleure estimation en fonction des modèles de probabilité appris à partir de ses données d’apprentissage.
Copilot utilise une approche appelée ancrage, qui consiste à ajouter des informations supplémentaires à la saisie pour contextualiser la sortie pour votre organisation. Il utilise la recherche sémantique pour comprendre l’entrée et récupérer les documents internes pertinents et les résultats web publics approuvés. Il guide ensuite le modèle pour générer une réponse basée sur ce contenu. Bien que cette approche permet de s’assurer que les réponses Copilot s’alignent sur les données de l’organisation, vous devez toujours passer en revue les résultats avant de les utiliser.
Tirer le meilleur parti de Copilot
Lorsque vous interagissez avec Copilot, il est important de garder à l’esprit que la structure des questions peut grandement affecter la réponse donnée par Copilot. Pour interagir efficacement avec Copilot, il est crucial de poser des questions claires et précises, de fournir un contexte pour aider l’IA à mieux comprendre votre intention, de poser une question à la fois et d’éviter les termes techniques pour plus de clarté et d’accessibilité.
Poser des questions claires et précises
Une intention claire est essentielle lorsque vous posez des questions, car elle a un impact direct sur la qualité de la réponse. Par exemple, poser une question générale comme « Pourquoi la machine à café du client ne démarre pas ? » est moins susceptible de produire une réponse utile par rapport à une question plus spécifique, telle que « Quelles mesures puis-je prendre pour déterminer pourquoi la machine à café du client ne démarre pas ? »
Toutefois, poser une question encore plus détaillée comme « Quelles mesures puis-je prendre pour déterminer pourquoi une machine à café Contoso 900 avec une cote de pression à 5 barres ne démarre pas ? » réduit l’étendue du problème et fournit plus de contexte, ce qui conduit à des réponses plus précises et ciblées.
Ajouter un contexte
L’ajout de contexte aide le système d’IA conversationnelle à mieux comprendre l’intention de l’utilisateur et à fournir des réponses plus précises et pertinentes. Sans contexte, le système peut mal comprendre la question de l’utilisateur ou fournir des réponses génériques ou non pertinentes.
Par exemple, « Pourquoi la machine à café ne démarre-t-elle pas ? » génère une réponse générique par rapport à une question avec plus de contexte, comme « Récemment, le client a lancé le mode de décalage sur sa machine à café et terminé la mise à l’échelle avec succès. Ils ont même reçu trois flashs du voyant d’alimentation à la fin pour confirmer que le détartrage était terminé. Pourquoi ne peuvent-ils plus démarrer la machine à café ?"
L’ajout de contexte de cette manière est important, car cela aide Copilot à mieux comprendre l’intention de l’utilisateur et à fournir des réponses plus précises et pertinentes.
Éviter les termes techniques si possible
Nous vous recommandons d’éviter d’utiliser des termes et des noms de ressources hautement techniques lorsque vous interagissez avec Copilot, car le système risque de ne pas toujours le comprendre correctement ou correctement. L’utilisation d’un langage naturel plus simple permet de s’assurer que le système peut comprendre correctement l’intention de l’utilisateur et fournir des réponses claires et utiles.
Par exemple, vous pouvez reformuler « Le client ne peut pas se connecter à la machine virtuelle après avoir modifié la configuration du pare-feu » pour le client a modifié les règles de pare-feu sur sa machine virtuelle. Ils ne peuvent plus se connecter à l’aide de Secure Shell (SSH). » Pouvez-vous vous aider ?"
En suivant les suggestions, les représentants peuvent améliorer leurs interactions avec Copilot et augmenter la probabilité d’en recevoir des réponses précises et confiantes.
Résumer ou développer une réponse
Parfois, la réponse de Copilot peut être plus longue que prévu. Ce scénario peut se produire lorsque le représentant est dans une conversation de conversation en direct avec un client et doit envoyer des réponses concises par rapport à l’envoi d’une réponse par e-mail. Dans ce cas, demander à Copilot de « résumer la réponse » entraîne une réponse concise à la question. De la même manière, si vous avez besoin de plus de détails, en demandant à Copilot de « fournir plus de détails », vous obtenez une réponse plus détaillée à votre question. Si la réponse est tronquée, la saisie de « continuer » affiche la partie restante de la réponse.
Comment puis-je influencer les réponses générées par Copilot ? Puis-je affiner le LLM sous-jacent ?
Il n’est pas possible de personnaliser directement le grand modèle de langue (LLM). Les réponses de Copilot peuvent être influencées par la mise à jour de la documentation source. Le contenu des commentaires des réponses de Copilot est stocké. Des rapports peuvent être créés à l’aide de ces données pour déterminer les sources de données qui doivent être mises à jour. Nous vous recommandons d’avoir des processus en place pour examiner régulièrement les données de commentaires et vous assurer que les articles de connaissances fournissent les informations les plus up-to-date à Copilot.
Quel est le modèle de sécurité des données pour Copilot ?
Copilot applique les contrôles d’accès basés sur les rôles (RBAC) définis et adhère à toutes les constructions de sécurité existantes. Par conséquent, les représentants ne peuvent pas afficher les données auxquelles ils n’ont pas accès. En outre, seules les sources de données accessibles au représentant sont utilisées pour la génération de réponse de Copilot.
Comment Copilot détermine-t-il si le contenu est offensant ou préjudiciable ?
Copilot détermine si le contenu est préjudiciable grâce à un système d’évaluation de la gravité basé sur des catégories distinctes de contenu répréhensible. Apprenez-en davantage des catégories de préjudice dans Azure AI Sécurité du Contenu.
Où se produit le traitement et la récupération des données pour générer des réponses Copilot ?
Copilot n'utilise pas le service OpenAI public qui alimente ChatGPT. Copilot dans le service clientèle utilise le Microsoft Azure OpenAI Service, hébergé dans un environnement géré par Microsoft. Tout le traitement et la récupération des données se produisent dans des environnements gérés par Microsoft. Les données client ne sont pas partagées avec des modèles publics ou utilisées pour les entraîner.
Quelles sont les limites linguistiques pour les résumés que Copilot génère à partir d’incidents et de conversations ?
De nombreuses langues sont prises en charge dans les résumés générés par Copilot à partir d’incidents et de conversations. On s’attend à ce que la qualité de ces résumés soit la plus élevée en anglais, tandis que dans les autres langues, la qualité devrait s’améliorer avec le temps. En savoir plus sur les langues prises en charge dans Prise en charge des langues pour les fonctionnalités Copilot
Le modèle est-il testé et surveillé de façon continue ? Si oui, à quelle fréquence ? Quels tests sont effectués ?
Le modèle est testé et surveillé en continu. Le modèle est évalué pour la qualité et le contenu dangereux chaque fois qu’il y a une modification de la version du modèle ou de ses interactions. Pour en savoir plus, consultez Rapport de transparence de l’IA responsable.
À quelle fréquence le modèle est-il surveillé pour détecter la dégradation des performances ?
Azure OpenAI héberge et gère le modèle GPT IA générative. Les pratiques d’INTELLIGENCE artificielle responsable et les vérifications de la commission de sécurité du déploiement régissent la façon dont le modèle est utilisé dans les scénarios de service à la clientèle. Toute modification apportée aux versions du modèle ou aux invites sous-jacentes est validée pour sa qualité et l'absence de contenu nuisible. Pour en savoir plus, consultez Rapport de transparence de l’IA responsable.
Le produit ou le service utilise-t-il plus d’un modèle ou un système de modèles interdépendants ?
Différentes fonctionnalités du système peuvent utiliser différentes versions des modèles Azure OpenAI Service. En savoir plus dans Modèles Azure OpenAI Service.
Copilot utilise-t-il un produit ou un service modèle autre que Microsoft et la documentation de ce modèle est-elle disponible ?
Copilot est créé à l’aide d’Azure OpenAI, un service d’IA entièrement géré qui intègre OpenAI aux modèles de filtrage de contenu et de détection des abus développés par Microsoft. Pour en savoir plus, consultez Note de transparence pour Azure OpenAI.
Existe-t-il un processus défini pour communiquer les modifications apportées aux modèles, aux modèles en amont ou aux sorties utilisés à partir d’autres solutions IA/ML ou model ?
Toute modification prévue des fonctionnalités Copilot est communiquée via une documentation publique. Toutefois, les processus internes d'IA responsable régissent les modifications des versions du modèle et des invites. Ces changements ne sont pas communiqués, car il s’agit d’améliorations fonctionnelles incrémentielles et continues.
Les commentaires des utilisateurs sont-ils disponibles pour Microsoft afin d’améliorer le produit ?
Non
Est-ce que Microsoft a des politiques et des procédures qui définissent et différencient les différents rôles et responsabilités humains lorsqu’ils interagissent avec les systèmes d’IA ou les surveillent ?
Oui. Dans le processus d’IA responsable, toutes les parties prenantes et tous les utilisateurs impliqués sont pris en compte, et leur utilisation ou leur utilisation involontaire du système est discutée. Sur la base des scénarios identifiés, les atténuations requises sont intégrées dans le produit ou via la documentation. Pour en savoir plus, consultez Rapport de transparence de l’IA responsable.
Microsoft identifie-t-il et documente-t-il des moyens de recueillir des retours des utilisateurs finaux et des parties prenantes afin de surveiller les impacts et les risques potentiels ?
Oui. Pour en savoir plus, consultez Rapport de transparence de l’IA responsable.
Est-ce que Microsoft documente, met en pratique et mesure les plans de réponse aux incidents pour les incidents du système d’IA, y compris la mesure de la réponse et des temps d’arrêt?
Oui. Le processus IA responsable exige que l’équipe dispose d’un plan de réponse aux incidents pour les problèmes d’IA, comme le processus pour les problèmes fonctionnels. Les équipes de fonctionnalités surveillent activement les performances et la fiabilité du système. Pour en savoir plus, consultez Rapport de transparence de l’IA responsable.
Est-ce que Microsoft établit des procédures pour partager l’information sur les incidences d’erreurs et les impacts négatifs avec les intervenants, les exploitants, les praticiens, les utilisateurs et les parties concernées?
Oui. Pour les problèmes de gravité élevée, les équipes de fonctionnalité doivent communiquer la panne aux clients concernés.
Microsoft mesure-t-il et surveille-t-il les performances du système en temps réel pour permettre une réponse rapide lorsqu’un incident du système d’IA est détecté ?
Oui. Les équipes de fonctionnalité surveillent en permanence les performances et la fiabilité du système.
Est-ce que Microsoft teste la qualité des explications des systèmes avec les utilisateurs finaux et les autres parties prenantes ?
Oui. Pour en savoir plus, consultez Rapport de transparence de l’IA responsable.
Microsoft dispose-t-il de stratégies et de procédures pour surveiller et résoudre les performances du modèle, la fiabilité, le biais et la sécurité dans le cycle de vie du modèle ?
Oui. Pour en savoir plus, consultez Rapport de transparence de l’IA responsable.
Est-ce que Microsoft effectue des évaluations de l’équité pour gérer les formes de biais informatiques et statistiques ?
Oui. En savoir plus dans Le rapport de transparence de l’IA responsable.
Microsoft surveille-t-il les sorties du système pour détecter des problèmes de performances ou de biais ?
Oui. Les filtres de modération sont appliqués en plusieurs couches, y compris en sortie, pour s’assurer qu’il n’y a pas de contenu nuisible dans la réponse. En savoir plus dans Le rapport de transparence de l’IA responsable.
Quel est le niveau de résilience du fonctionnement du modèle ? Par exemple, existe-t-il un plan de reprise après sinistre et d’urgence pour les cas où le modèle n’est pas disponible ?
Comme tous les services Azure, la sauvegarde et la récupération sont prises en charge via plusieurs centres de données pour une haute disponibilité.
Le modèle dépend-il, incorporé dans des outils ou solutions non Microsoft qui rendent difficile la migration du modèle vers un autre environnement (y compris des variables telles que le fournisseur d'hébergement, le matériel, les systèmes logiciels) qui entravent l'explication du modèle ?
Non
Existe-t-il un modèle établi de politique de gouvernance ?
Oui. Azure OpenAI prend en charge une stratégie de gouvernance établie. En savoir plus dans Le rapport de transparence de l’IA responsable.
Existe-t-il des protocoles établis et documentés (autorisation, durée, type) et des contrôles d’accès pour les ensembles de données de formation ou de production contenant des informations personnelles conformément aux politiques de confidentialité et de gouvernance des données ?
Actuellement, il n’y a pas d’entraînement du modèle, donc aucune exigence concernant le jeu de données. Toutefois, lorsqu’un représentant du service client s’engage avec Copilot, selon la fonctionnalité, les données contextuelles (cas ou conversation) sont utilisées pour générer une réponse.
Les divulgations d’informations personnelles et l’inférence d’attributs sensibles ou protégés par la loi sont-elles surveillées ?
Oui. La révision de la confidentialité est effectuée pour chaque fonctionnalité.
Microsoft dispose-t-elle d’un processus pour prendre en compte les questions et exigences juridiques et réglementaires spécifiques à son secteur d’activité, à son objectif commercial et à l’environnement applicatif des systèmes d’IA déployés ?
Oui. L’examen juridique est effectué pour chaque fonctionnalité afin d’aider à respecter les exigences réglementaires et d’autres questions juridiques.
Informations associées
Utiliser les fonctionnalités de Copilot
Utilisez Copilot pour générer des ébauches de connaissances à partir des cas
Disponibilité de Copilot dans la région
FAQ sur la sécurité et la confidentialité des données Copilot dans Microsoft Power Platform