Bemærk
Adgang til denne side kræver godkendelse. Du kan prøve at logge på eller ændre mapper.
Adgang til denne side kræver godkendelse. Du kan prøve at ændre mapper.
| Aktiveret til | Offentlig prøveversion | Generel tilgængelighed |
|---|---|---|
| Administratorer, udviklere, marketingmedarbejdere eller analytikere, automatisk |
21. sep. 2025 |
- |
Forretningsværdi
Evalueringsstrukturen forbedrer agentvalideringen ved at aktivere automatiserede testarbejdsprocesser, minimere manuel indsats og give tydelige udførelsesresultater. Det sikrer ensartede og pålidelige agentresponser, så udviklere kan identificere potentielle problemer tidligt i udviklingscyklussen. Ved at tilbyde kørselsresultater og evalueringsindikatorer kan Oprettere bedre vurdere testdækning, bekræfte udførelsesintegritet og forbedre den overordnede agentydeevne, hvilket fører til hurtigere udrulning og øget pålidelighed.
Detaljer om funktioner
Evalueringsstrukturen i Copilot Studio introducerer en struktureret og automatiseret tilgang til test af AI-agenter, der sikrer udrulninger af høj kvalitet og løbende forbedring. Det er bygget op omkring tre kernearbejdsstrøms:
Initierer automatiserede evalueringsprocesser Oprettere kan uden problemer starte automatiserede evalueringstest, enten direkte fra agenten eller via testruden. Dette muliggør strukturerede valideringsarbejdsprocesser, der sikrer ensartet og gentagelig test.
Redigering af avanceret testforespørgsel Evalueringsstrukturen gør det muligt for oprettere at tilpasse testforespørgsler for at maksimere valideringsnøjagtigheden: • Rediger dynamisk testforespørgsler for at tilpasse dem til forskellige testbehov • Angiv brugerdefinerede testspørgsmål manuelt for udvidet scenariedækning • Udnyt AI-genererede testforespørgsler for at forbedre evalueringsdybden
Automatiseret testkørsel og visning af resultater Evalueringsstrukturen indeholder en struktureret og automatiseret testproces, der sikrer pålidelig udførelse og klare valideringsresultater: • Udfør automatiserede test for at vurdere agentsvar på tværs af flere scenarier • Angiv en samlet ydeevneoversigt, der hjælper brugerne med hurtigt at måle evalueringsresultater • Opdel resultaterne efter session for at spore udførelsesdetaljer og agentadfærd • Give detaljeret feedback på spørgsmålsniveau, herunder: o Evaluering af svar og korrekthed o Forklaringer til mislykkede test o Identifikation af spørgsmålskilden for bedre sporing
Geografiske områder
Besøg rapporten Udforsk funktionsgeografi for Microsoft Azure-områder, hvor denne funktion er planlagt eller tilgængelig.
Tilgængelighed af sprog
Besøg rapporten Udforsk funktionssprog for at få oplysninger om denne funktions tilgængelighed.
Relateret indhold
Opret test cases for at evaluere din agent (dokumenter)
21. sep. 2025