FAQ sur l’optimisation vocale (aperçu)

[Cet article fait partie de la documentation en version préliminaire et peut faire l’objet de modifications.]

Cet article contient des questions fréquemment posées relatives à la configuration et à la mise en place des agents vocaux dans Copilot Studio.

Important

  • Cette fonctionnalité est en version préliminaire.
  • Les fonctionnalités d’évaluation ne sont pas destinées à une utilisation en production et peuvent être restreintes. Ces fonctionnalités sont soumises à des conditions d’utilisation supplémentaires, et sont disponibles avant une version officielle de telle sorte que les clients puissent tirer parti d’un accès anticipé et fournir leurs commentaires.

L’agent peut-il se limiter aux connaissances fondées uniquement ou doit-il également prendre des mesures dans les systèmes de référence ?

Pas nécessairement. Vous pouvez configurer des agents pour qu’ils fonctionnent uniquement sur des connaissances basées, sans prendre d’action dans les systèmes back-end. Copilot Studio contrôle cette fonctionnalité via knowledge et les paramètres de recherche web.

Quand les agents « knowledge-only » ont du sens

Utilisez ce mode lorsque le rôle de l’agent est principalement informationnel :

  • Questions fréquentes (FAQ)

  • Explication des stratégies

  • Fournir des conseils ou des instructions

  • Déviation des appels ou des conversations

Dans ces scénarios, le modèle récupère des informations à partir de sources configurées et génère une réponse sans appeler d’API.

Comment l’agent récupère-t-il les données métier, les stratégies et le contexte client en temps réel ?

Connaissances ancrées (statiques ou semi-statiques) : cette approche fonctionne le mieux pour les stratégies, la documentation et le contenu structuré.

Le modèle utilise les réponses génératives, où il :

  • Recherche dans les sources de connaissances configurées.

  • Synthétise une réponse.

  • Cite éventuellement les sources.

Les sources prises en charge sont les suivantes :

  • SharePoint

  • Sites Internet

  • Documents téléchargés

  • Dataverse (indirect via des flux uniquement)

Note

Dataverse n’est pas pris en charge en tant que source de connaissances directe pour les agents C2 en raison des exigences d’authentification. Vous pouvez exposer des données Dataverse via des flux ou des appels OData et les retourner à l’agent en tant que résultats structurés.

Meilleurs cas d’usage pour les connaissances

  • Remboursement et stratégies de retour

  • Heures de magasin et emplacements

  • Règles d’admissibilité

  • Questions fréquentes (FAQ) sur le produit

  • Procédures internes

Exemple

« Quelle est votre politique de remboursement pour les commandes en ligne ? »

Le modèle récupère le contenu de stratégie à partir de SharePoint et génère une réponse claire.

Quelles tâches nécessitent une validation exacte avant l’exécution ? Remboursements, annulations, mises à jour ou modifications de compte

Certaines actions nécessitent une validation stricte et ne doivent jamais être laissées aux décisions d’IA de forme libre.

Catégories à haut risque

Category Examples Pourquoi cela se produit-il
Financier Remboursements, paiements, crédits Risque financier
État du compte Annulations, modifications de plan Actions irréversibles
Identité Adresse, téléphone, mises à jour SSN Fraude et conformité
Juridique Consentement, désactivations Exposition réglementaire

Modèle d’exécution sécurisée

L'IA décide > le système valide > l'IA communique

Ce principe garantit une orchestration générative sécurisée.

Exemple : Demande de remboursement

  1. Le modèle identifie l’intention
    « L’utilisateur souhaite un remboursement »

  2. Le modèle collecte les détails requis
    ID de commande, raison, délai

  3. L'API ou le système de référence valide

    • Vérifie l’éligibilité

    • Applique la stratégie de remboursement

    • Confirme l’approbation ou le rejet

  4. Le modèle communique le résultat

    • Explique clairement le résultat

    • N’invente pas ou ne suppose pas les résultats

Clarification d’une idée fausse commune

L’utilisation d’un modèle unique ne signifie pas une automatisation non contrôlée.

Il y a une séparation claire des responsabilités.

Capability Qui décide Qui applique
Reconnaissance de l’intention Modèle
Réponses basées sur les connaissances Modèle Étendue de la source de connaissances
Sélection de l’API Modèle Disponibilité des outils
Validation Système d’enregistrement Logique back-end
Réponse finale Modèle Basé sur des résultats réels

Configurer des agents vocaux en temps réel