Auswerten und Vergleichen von Modellen
Wenn ein automatisiertes Machine Learning (AutoML)-Experiment abgeschlossen ist, sollten Sie die Modelle überprüfen, die trainiert wurden, und entscheiden, welche am besten ausgeführt wurde.
Im Azure Machine Learning-Studio können Sie ein AutoML-Experiment auswählen, um seine Details zu erkunden.
Auf der Seite Übersicht der Experimentausführung für automatisiertes maschinelles Lernen finden Sie das Eingabedatenobjekt und die Zusammenfassung des besten Modells. Um alle Modelle zu erkunden, die trainiert wurden, können Sie die Registerkarte Modelle auswählen:
Erkunden von Vorverarbeitungsschritten
Wenn Sie die Featurisierung für Ihr AutoML-Experiment aktiviert haben, werden Datensperren automatisch auch angewendet. Für Klassifizierungsmodelle werden drei Optionen für den Datenintegritätsschutz unterstützt:
- Ausgewogenheitserkennung für Klassen
- Fehlende Featurewerte durch Imputation ergänzen
- Erkennung von Features mit hoher Kardinalität.
Jede dieser Datenleitplanken zeigt einen von drei möglichen Zuständen:
- Bestanden: Es wurden keine Probleme erkannt, und es ist keine Aktion erforderlich.
- Fertig: Änderungen wurden auf Ihre Daten angewendet. Sie sollten die Änderungen überprüfen, die AutoML an Ihren Daten vorgenommen hat.
- Warnung: Ein Problem wurde erkannt, konnte aber nicht behoben werden. Überprüfen Sie die Daten, um das Problem zu beheben.
Neben Data Guardrails kann AutoML Skalierungs- und Normalisierungstechniken auf jedes Modell anwenden, das trainiert wird. Sie können die Technik, die in der Liste der Modelle angewendet wird, unter Algorithmusnameprüfen.
Beispielsweise kann der Algorithmusname eines aufgelisteten Modells MaxAbsScaler, LightGBMwerden. MaxAbsScaler bezieht sich auf eine Skalierungstechnik, bei der jedes Feature um seinen maximalen Absolutenwert skaliert wird. LightGBM bezieht sich auf den Klassifizierungsalgorithmus, der zum Trainieren des Modells verwendet wird.
Abrufen des besten Testlaufs und dessen Modells
Wenn Sie die Modelle in AutoML überprüfen, können Sie die beste Ausführung ganz einfach anhand der von Ihnen angegebenen primären Metrik identifizieren. Im Azure Machine Learning-Studio werden die Modelle automatisch sortiert, um das leistungsstärkste Modell oben anzuzeigen.
Sie können auf der Registerkarte Modelle des Experiments für automatisiertes maschinelles Lernen die Spalten bearbeiten, wenn Sie andere Metriken in derselben Übersicht anzeigen möchten. Durch die Erstellung einer umfassenderen Übersicht, die verschiedene Metriken enthält, kann es einfacher sein, Modelle zu vergleichen.
Um ein Modell noch weiter zu erkunden, können Sie Erklärungen für jedes Modell generieren, das trainiert wurde. Beim Konfigurieren eines AutoML-Experiments können Sie angeben, dass Erklärungen für das leistungsstärkste Modell generiert werden sollen. Wenn Sie jedoch an der Interpretationsfähigkeit eines anderen Modells interessiert sind, können Sie das Modell in der Übersicht auswählen und Erläutern des Modellsauswählen.
Anmerkung
Die Erläuterung eines Modells ist eine Annäherung an die Interpretationsfähigkeit des Modells. Insbesondere werden Erläuterungen die relative Bedeutung von Features für das Zielmerkmal schätzen (was das Modell vorhersagen soll). Erfahren Sie mehr über die Interpretierbarkeit des Modells.
Tipp
Erfahren Sie mehr über wie man AutoML-Ausführungenauswertet.