Führen Sie automatisierte Tests für die Qualität und Zuverlässigkeit der Agenten durch

Aktiviert für Öffentliche Vorschau Allgemeine Verfügbarkeit
Administrierende, Erstellende, Marketingfachkräfte oder Mitarbeitende in der Analyse, automatisch 21. September 2025 -

Geschäftswert

Das Evaluierungsframework verbessert die Agentvalidierung, indem automatisierte Testworkflows aktiviert werden, der manuelle Aufwand minimiert und klare Ausführungsergebnisse bereitgestellt werden. Sie stellt konsistente und zuverlässige Agentantworten sicher, sodass Die Entscheidungsträger potenzielle Probleme frühzeitig im Entwicklungszyklus erkennen können. Durch die Bereitstellung von Ergebnis- und Auswertungsindikatoren können Die Entscheidungsträger die Testabdeckung besser bewerten, die Ausführungsintegrität überprüfen und die Gesamtleistung des Agents verbessern, was zu einer schnelleren Bereitstellung und erhöhter Zuverlässigkeit führt.

Funktionsdetails

Das Evaluierungsframework in Copilot Studio führt einen strukturierten und automatisierten Ansatz zum Testen von KI-Agents ein, um qualitativ hochwertige Bereitstellungen und kontinuierliche Verbesserung sicherzustellen. Es basiert auf drei Kernarbeitsströmen:

  1. Entwickler können automatisierte Bewertungstests nahtlos initiieren, entweder direkt über den Agenten oder über den Testbereich. Dies ermöglicht strukturierte Validierungsworkflows und stellt konsistente und wiederholbare Tests sicher.

  2. Erweiterte Testabfragebearbeitung Das Auswertungsframework ermöglicht Es Makern, Testabfragen zu verfeinern und anzupassen, um die Validierungsgenauigkeit zu maximieren: • Dynamisches Ändern von Testabfragen zur Anpassung an verschiedene Testanforderungen • Manuelles Eingeben von benutzerdefinierten Testfragen für erweiterte Szenarioabdeckung • Nutzen von KI-generierten Testabfragen zur Verbesserung der Auswertungstiefe

  3. Automatisierte Testausführung und Ergebnisseanzeige Das Auswertungsframework bietet einen strukturierten und automatisierten Testworkflow, der eine zuverlässige Ausführung und klare Validierungsergebnisse gewährleistet: • Ausführen automatisierter Tests zur Bewertung von Agentantworten in mehreren Szenarien • Bereitstellen einer Leistungsübersicht, sodass Benutzer schnell Auswertungsergebnisse erfassen können • Ergebnisse nach Sitzung aufschlüsseln, um Ausführungsdetails und Agentverhalten nachzuverfolgen • Detailliertes Feedback auf Frageebene bereitstellen, einschließlich: o Bewertung der Antworten und Korrektheit o Erklärungen für fehlgeschlagene Tests o Identifizierung der Fragequelle zur besseren Rückverfolgbarkeit

Geografische Regionen

Besuchen Sie den "Explore Feature Geography"-Bericht für Microsoft Azure-Regionen, in denen dieses Feature geplant oder verfügbar ist.

Verfügbare Sprachen

Besuchen Sie den Bericht "Explore Feature Language", um Informationen über die Verfügbarkeit dieser Funktion zu erhalten.

Erstellen von Testfällen zum Auswerten Ihres Agents (Dokumente)