Modellen evalueren en vergelijken
Wanneer een geautomatiseerd Machine Learning-experiment (AutoML) is voltooid, wilt u de modellen bekijken die zijn getraind en bepalen welke het beste is uitgevoerd.
In Azure Machine Learning Studio kunt u een AutoML-experiment selecteren om de details ervan te verkennen.
Op de pagina Overzicht van de AutoML-experimentuitvoering kunt u de invoergegevens en de samenvatting van het beste model bekijken. Als u alle modellen wilt verkennen die zijn getraind, kunt u het tabblad Modellen selecteren:
Verken de voorverwerkingsstappen
Wanneer u featurization voor uw AutoML-experiment hebt ingeschakeld, worden ook gegevensbeveiligingen automatisch toegepast. De drie gegevensbeveiligingen die worden ondersteund voor classificatiemodellen zijn:
- Detectie van klassenverdeling.
- Imputatie van ontbrekende functiewaarden.
- Detectie van kenmerken met hoge kardinaliteit.
Elk van deze gegevensbeveiligingen toont een van de drie mogelijke statussen:
- doorgegeven: er zijn geen problemen gedetecteerd en er is geen actie vereist.
- Gereed: wijzigingen zijn toegepast op uw gegevens. Controleer de wijzigingen die AutoML heeft aangebracht in uw gegevens.
- Gealarmeerd: er is een probleem gedetecteerd, maar het kan niet worden opgelost. Controleer de gegevens om het probleem op te lossen.
Naast gegevensbeveiligingen kan AutoML schaal- en normalisatietechnieken toepassen op elk model dat is getraind. U kunt de techniek bekijken die is toegepast in de lijst met modellen onder algoritmenaam.
De algoritmenaam van een weergegeven model kan bijvoorbeeld worden MaxAbsScaler, LightGBM.
MaxAbsScaler verwijst naar een schaaltechniek waarbij elke functie wordt geschaald op basis van de maximale absolute waarde.
LightGBM verwijst naar het classificatie-algoritme dat wordt gebruikt om het model te trainen.
Haal de beste run en het bijbehorende model binnen
Wanneer u de modellen in AutoML bekijkt, kunt u eenvoudig de beste uitvoering identificeren op basis van de primaire metrische gegevens die u hebt opgegeven. In Azure Machine Learning Studio worden de modellen automatisch gesorteerd om het best presterende model bovenaan weer te geven.
Op het tabblad Modellen van het AutoML-experiment kunt u de kolommen bewerken als u andere metrische gegevens in hetzelfde overzicht wilt weergeven. Door een uitgebreider overzicht te maken met verschillende metrische gegevens, kan het eenvoudiger zijn om modellen te vergelijken.
Als u een model nog verder wilt verkennen, kunt u uitleg genereren voor elk model dat is getraind. Wanneer u een AutoML-experiment configureert, kunt u opgeven dat er uitleg moet worden gegenereerd voor het best presterende model. Echter, als u geïnteresseerd bent in de interpreteerbaarheid van een ander model, kunt u het model selecteren in het overzicht en Model uitleggenselecteren.
Notitie
Het uitleggen van een model is een benadering van de interpreteerbaarheid van het model. In het bijzonder schatten uitleg het relatieve belang van functies op de doelfunctie (wat het model is getraind om te voorspellen). Meer informatie over modelinterpreteerbaarheid.
Tip
Meer informatie over het evalueren van AutoML-uitvoeringen.