Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
| Aktiviert für | Öffentliche Vorschau | Allgemeine Verfügbarkeit |
|---|---|---|
| Administrierende, Erstellende, Marketingfachkräfte oder Mitarbeitende in der Analyse, automatisch |
21. September 2025 |
- |
Geschäftswert
Das Evaluierungsframework verbessert die Agentvalidierung, indem automatisierte Testworkflows aktiviert werden, der manuelle Aufwand minimiert und klare Ausführungsergebnisse bereitgestellt werden. Sie stellt konsistente und zuverlässige Agentantworten sicher, sodass Die Entscheidungsträger potenzielle Probleme frühzeitig im Entwicklungszyklus erkennen können. Durch die Bereitstellung von Ergebnis- und Auswertungsindikatoren können Die Entscheidungsträger die Testabdeckung besser bewerten, die Ausführungsintegrität überprüfen und die Gesamtleistung des Agents verbessern, was zu einer schnelleren Bereitstellung und erhöhter Zuverlässigkeit führt.
Funktionsdetails
Das Evaluierungsframework in Copilot Studio führt einen strukturierten und automatisierten Ansatz zum Testen von KI-Agents ein, um qualitativ hochwertige Bereitstellungen und kontinuierliche Verbesserung sicherzustellen. Es basiert auf drei Kernarbeitsströmen:
Entwickler können automatisierte Bewertungstests nahtlos initiieren, entweder direkt über den Agenten oder über den Testbereich. Dies ermöglicht strukturierte Validierungsworkflows und stellt konsistente und wiederholbare Tests sicher.
Erweiterte Testabfragebearbeitung Das Auswertungsframework ermöglicht Es Makern, Testabfragen zu verfeinern und anzupassen, um die Validierungsgenauigkeit zu maximieren: • Dynamisches Ändern von Testabfragen zur Anpassung an verschiedene Testanforderungen • Manuelles Eingeben von benutzerdefinierten Testfragen für erweiterte Szenarioabdeckung • Nutzen von KI-generierten Testabfragen zur Verbesserung der Auswertungstiefe
Automatisierte Testausführung und Ergebnisseanzeige Das Auswertungsframework bietet einen strukturierten und automatisierten Testworkflow, der eine zuverlässige Ausführung und klare Validierungsergebnisse gewährleistet: • Ausführen automatisierter Tests zur Bewertung von Agentantworten in mehreren Szenarien • Bereitstellen einer Leistungsübersicht, sodass Benutzer schnell Auswertungsergebnisse erfassen können • Ergebnisse nach Sitzung aufschlüsseln, um Ausführungsdetails und Agentverhalten nachzuverfolgen • Detailliertes Feedback auf Frageebene bereitstellen, einschließlich: o Bewertung der Antworten und Korrektheit o Erklärungen für fehlgeschlagene Tests o Identifizierung der Fragequelle zur besseren Rückverfolgbarkeit
Geografische Regionen
Besuchen Sie den "Explore Feature Geography"-Bericht für Microsoft Azure-Regionen, in denen dieses Feature geplant oder verfügbar ist.
Verfügbare Sprachen
Besuchen Sie den Bericht "Explore Feature Language", um Informationen über die Verfügbarkeit dieser Funktion zu erhalten.
Verwandte Inhalte
Erstellen von Testfällen zum Auswerten Ihres Agents (Dokumente)
21. September 2025