Noter les cas de test d’évaluation des assistants

Activé(e) pour Version d'essai publique Disponibilité générale
Administrateurs, développeurs, responsables marketing ou analystes, automatiquement 21 septembre 2025 -

Valeur commerciale

Le cadre d'évaluation renforce l'évaluation de l'agent en introduisant des méthodes d'évaluation flexibles au-delà de la simple réussite/échec. Les créateurs peuvent choisir parmi les correspondances exactes, les vérifications de mots clés, les algorithmes de similarité, la reconnaissance des intentions et les métriques de qualité pilotées par l’IA, ce qui permet une validation plus précise et significative des réponses de l’agent. Cette flexibilité permet aux équipes de détecter les erreurs, d’affiner les seuils et de comprendre pourquoi les réponses échouent, améliorant la confiance et accélérant l’itération.

Détails des fonctionnalités

La fonctionnalité de classifieurs dans Copilot Studio étend le framework d’évaluation en activant des méthodes flexibles et configurables pour évaluer les réponses de l’agent. Au lieu de s’appuyer uniquement sur la réussite/échec binaire, les fabricants peuvent désormais choisir l’approche de notation la plus appropriée par cas de test, en garantissant la précision, la transparence et l’adaptabilité dans différents scénarios.

Vous avez le choix entre trois méthodes de test, également appelées graders, pour évaluer les réponses de l’agent : qualité, similarité et correspondance de texte. Pour plus d’informations sur les différentes méthodes de test, consultez Méthodes de test.

Zones géographiques

Visitez le rapport Explore Feature Geography pour les zones Microsoft Azure où cette fonctionnalité est planifiée ou disponible.

Langues disponibles

Pour plus d'informations sur la disponibilité de cette fonctionnalité, consultez le rapport Explore Feature Language.

Créer des cas de test pour évaluer votre agent (docs)