Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Important
Certaines des fonctionnalités décrites dans ce plan de lancement n’ont pas été publiées. Les chronologies de remise peuvent changer et les fonctionnalités projetées peuvent ne pas être publiées (voir stratégie Microsoft). En savoir plus : Nouveautés et planifications
| Activé(e) pour | Version d'essai publique | Disponibilité générale |
|---|---|---|
| Administrateurs, développeurs, responsables marketing ou analystes, automatiquement | Juillet 2026 | - |
Valeur commerciale
Les agents pour l’évaluation de Microsoft 365 Copilot permettent la validation de niveau entreprise des agents déclaratifs utilisés dans des flux de travail métier réels et critiques, et déplace les équipes des tests manuels et ad hoc vers une pratique d’évaluation évolutive et standardisée. Avec cette fonctionnalité, vous pouvez réduire les risques de production en détectant les problèmes de qualité, de correction et de comportement avant la mise en production, et en améliorant la confiance et les itérations de mise en production par le biais de processus d’évaluation automatisés, reproductibles et explicables.
Détails des fonctionnalités
L’évaluation des agents pour Microsoft 365 Copilot (également appelé agents déclaratifs) fournit un framework d’évaluation complet adapté aux agents déclaratifs au cours des phases de préparation au développement, aux tests et à la préparation de la production.
Il permet une validation structurée de la qualité, du comportement et de la fiabilité à l’aide de flux de travail automatisés et reproductibles.
L’évaluation déclarative de l’agent inclut les fonctionnalités suivantes :
Configuration et entrées d’évaluation
Les analystes peuvent configurer les données à utiliser dans les tests :
- Créez et gérez des données de test personnalisées.
- Créez des entrées d’évaluation à partir de conversations existantes.
Exécution de l’évaluation
Les analystes peuvent configurer l’étendue ou le type d’exécution d’évaluation :
- Exécutions d’évaluation automatisées
- Évaluation complète de la conversation (à plusieurs tours)
- Contexte d’évaluation authentifié
Méthodologie d’évaluation (classateurs)
Les analystes peuvent accéder à ces évaluateurs :
- Cadre de notation au niveau d'ensemble
- Évaluateur de similarité
- Comparaison de signification sémantique
- Correspondance de mots-clés
- Classeur personnalisé avec des étiquettes configurables
- Évaluateurs de qualité basés sur l'IA
- Évaluateur d’invocation des outils et des sujets
Ils peuvent également utiliser plusieurs évaluateurs par entrée.
Analyse et narration
Les analystes peuvent également utiliser des outils de création de rapports et des fonctionnalités d’analyse :
- Analyse agrégée des résultats
- Vues détaillées pour l’inspection par test
- Visualisation de carte d’activité
- Capturer et analyser les réactions des utilisateurs
Suivi et comparaison de progression
Les analystes peuvent gérer les résultats et les exécutions dans leur contexte avec :
- Comparaisons entre cycles
- Exportation des résultats de l’évaluation
Zones géographiques
Visitez le rapport Explore Feature Geography pour les zones Microsoft Azure où cette fonctionnalité est planifiée ou disponible.
Langues disponibles
Pour plus d'informations sur la disponibilité de cette fonctionnalité, consultez le rapport Explore Feature Language.