Optimering av hyperparameter
Maskininlärningsmodeller kräver olika begränsningar, vikter eller inlärningshastigheter för att generalisera olika datamönster. Dessa mått kallas hyperparametrar och används för att styra inlärningsprocessen. Hyperparametrarna måste justeras så att modellen kan lösa maskininlärningsproblemet optimalt.
Som standard använder AutoML en fördefinierad uppsättning hyperparametervärden för varje algoritm som används vid modellträning. Detta är de optimerade standardvärden som är allmänt accepterade inom datavetenskapen. Den bästa kombinationen av hyperparametervärden väljs automatiskt.
I vissa fall kan det dock vara lämpligt att finjustera modellen för att få optimala prediktiva resultat. Detta kan göras med hjälp av hyperparameteroptimering (HPO).
AutoML kör hyperparameteroptimering endast för den bästa algoritmen i den uppsättning som du valde i experimentkonfigurationen. Först körs en slumpmässig sökning och sedan en rutnätssökning för att hitta de bästa hyperparametrarna för algoritmen.
Det finns några viktiga saker att tänka på innan du använder hyperparameteroptimering:
-
Använd inte hyperparameteroptimering första gången du tränar en modell. Den är utformad för att användas efter att du har tränat din modell och är nöjd med resultaten. Denna process kräver ofta upprepad förfining och förnyad träning.
-
Hyperparameteroptimering tar mycket mer tid i anspråk. Om träningsprocessen för din modell tar fem minuter med de fördefinierade standardvärdena för hyperparametrar kan träning av samma modell med aktiverad hyperparameteroptimering ta flera timmar.
Algoritmer som används vid hyperparameteroptimering
Hyperparameteroptimering är begränsad till specifika algoritmer och modelltyper. Den är särskilt utformad för att fungera med följande modelltyper och algoritmer:
-
Binära klassificeringsmodeller
-
Catboost-klassificering
-
Elastiskt nät-regression
-
Lassoregression
-
LightGBM-klassificering
-
Logistisk regression
-
Slumpskogsklassificering
-
XGBoost-klassificering
-
-
Regressionsmodeller
-
Catboost-regression
-
LightGBM-regression
-
Slumpskogsregression
-
XGBoost regression
-
Aktivera hyperparameteroptimering
Gör följande:
Klicka på Visa konfiguration i ett experiment.
Experimentets konfigurationspanel öppnas.
Vid behov klickar du på Ny version för att konfigurera nästa version.
Expandera Modelloptimering i panelen.
Växla från Intelligent till Manuell.
Hyperparameteroptimering är inte tillgängligt med intelligent modelloptimering.
Klicka i markeringsrutan för Hyperparameteroptimering.
Visa hyperparametervärden
Visa hyperparametervärden på fliken Jämför när du gör detaljerad modellanalys. Se Utföra detaljerad modellanalys för mer information.