Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
| Activé(e) pour | Version d'essai publique | Disponibilité générale |
|---|---|---|
| Administrateurs, développeurs, responsables marketing ou analystes, automatiquement |
21 septembre 2025 |
- |
Valeur commerciale
L’infrastructure d’évaluation améliore la validation de l’agent en activant des workflows de test automatisés, en minimisant l’effort manuel et en fournissant des résultats d’exécution clairs. Il garantit des réponses cohérentes et fiables aux agents, ce qui permet aux Créateurs d’identifier les problèmes potentiels au début du cycle de développement. En offrant des résultats d’exécution et des indicateurs d’évaluation, Makers peut mieux évaluer la couverture des tests, vérifier l’intégrité de l’exécution et améliorer les performances globales de l’agent, ce qui entraîne un déploiement plus rapide et une fiabilité accrue.
Détails des fonctionnalités
L’infrastructure d’évaluation de Copilot Studio introduit une approche structurée et automatisée pour tester des agents IA, garantissant ainsi des déploiements de haute qualité et une amélioration continue. Il est construit autour de trois flux de travail principaux :
Lancement des processus d’évaluation automatisés : les concepteurs peuvent lancer des tests d’évaluation automatisés en toute simplicité, soit directement depuis l’assistant, soit via le panneau de test. Cela permet des flux de travail de validation structurés, garantissant ainsi des tests cohérents et reproductibles.
Modification avancée des requêtes de test L’infrastructure d’évaluation permet aux Créateurs d’affiner et de personnaliser les requêtes de test afin d’optimiser la précision de validation : • Modifier dynamiquement les requêtes de test pour s’adapter à différents besoins de test • Entrer manuellement des questions de test personnalisées pour une couverture de scénario étendue • Tirer parti des requêtes de test générées par l’IA pour améliorer la profondeur d’évaluation
L'exécution automatisée des tests et l'affichage des résultats fournissent un workflow de test structuré et automatisé, garantissant une exécution fiable et des résultats de validation clairs : • Exécuter des tests automatisés pour évaluer les réponses des agents dans divers scénarios • Fournir un résumé global des performances, aidant les utilisateurs à évaluer rapidement les résultats d'évaluation • Décomposer les résultats par session pour suivre les détails de l'exécution et le comportement de l'agent • Fournir des commentaires détaillés au niveau des questions, y compris : o Évaluation des réponses et justesse o Explications pour les tests échoués o Identification de la source de la question pour une meilleure traçabilité
Zones géographiques
Visitez le rapport Explore Feature Geography pour les zones Microsoft Azure où cette fonctionnalité est planifiée ou disponible.
Langues disponibles
Pour plus d'informations sur la disponibilité de cette fonctionnalité, consultez le rapport Explore Feature Language.
21 septembre 2025