Hyperparameteroptimierung
Modelle für maschinelles Lernen erfordern verschiedene Beschränkungen, Gewichtungen oder Lernraten, um verschiedene Datenmuster zu generalisieren. Diese Kennzahlen werden als Hyperparameter bezeichnet und werden zum Steuern des Lernprozesses verwendet. Die Hyperparameter müssen feinabgestimmt werden, damit das Modell die Aufgabe für maschinelles Lernen optimal lösen kann.
Standardmäßig verwendet AutoML einen vordefinierten Satz von Hyperparameterwerten für jeden Algorithmus, der im Modelltraining verwendet wird. Dabei handelt es sich um standardmäßige, optimierte Werte die allgemein von der Data Science-Community akzeptiert werden. Die Kombination aus Hyperparameterwerten mit der besten Leistung wird automatisch ausgewählt.
In manchen Fällen können Sie das Modell aber feinabstimmen, um optimale Vorhersageergebnisse zu erhalten. Das ist mit der Hyperparameteroptimierung (HPO) möglich.
AutoML führt Hyperparameteroptimierung nur für den besten Algorithmus des Satzes durch, den Sie in der Experimentkonfiguration ausgewählt haben. Zuerst wird eine zufällige Suche ausgeführt, und dann eine Rastersuche, um die besten Hyperparameter für den Algorithmus zu finden.
Vor Verwenden der Hyperparameteroptimierung müssen einige wichtige Punkte berücksichtigt werden:
-
Verwenden Sie keine Hyperparameteroptimierung, wenn Sie ein Modell erstmals trainieren. Sie ist dafür ausgelegt, verwendet zu werden, nachdem Sie Ihr Modell trainiert haben und mit den Ergebnissen zufrieden sind. Für diesen Prozess sind häufig eine wiederholte Verfeinerung und erneutes Training erforderlich.
-
Hyperparameteroptimierung erfordert einen erheblichen Zeitaufwand. Wenn der Trainingsprozess für Ihr Modell unter Verwendung der standardmäßigen vordefinierten Hperparameterwerte fünf Minuten dauert, kann das Trainieren des gleichen Modells mit aktivierter Hyperparameteroptimierung Stunden dauern.
Verwendete Algorithmen bei der Hyperparameteroptimierung
Die Hyperparameteroptimierung ist auf spezifische Algorithmen und Modelltypen beschränkt. Sie ist spezifisch dafür ausgelegt, mit den folgenden Modelltypen und Algorithmen zu funktionieren:
-
Binärklassifikationsmodelle
-
CatBoost-Klassifikation
-
Elastic Net-Regression
-
Lasso-Regression
-
LightGBM-Klassifikation
-
Logistische Regression
-
Random Forest-Klassifikation
-
XGBoost-Klassifikation
-
-
Regressionsmodelle
-
CatBoost-Regression
-
LightGBM-Regression
-
Random Forest-Regression
-
XGBoost-Regression
-
Aktivieren der Hyperparameteroptimierung
Gehen Sie folgendermaßen vor:
Klicken Sie in einem Experiment auf Konfiguration anzeigen.
Der Fensterbereich der Experimentkonfiguration wird geöffnet.
Falls erforderlich, klicken Sie auf Neue Version, um die nächste Version zu konfigurieren.
Erweitern Sie im Fensterbereich die Option Modelloptimierung.
Wechseln Sie von Intelligent zu Manuell.
Die Hyperparameteroptimierung ist bei der intelligenten Modelloptimierung nicht verfügbar.
Klicken Sie auf das Kontrollkästchen für Hyperparameteroptimierung.
Anzeigen von Hyperparameterwerten
Lassen Sie sich Hyperparameterwerte während der detaillierten Modellanalyse auf der Registerkarte Vergleichen anzeigen. Weitere Informationen finden Sie unter Durchführen von detaillierten Modellanalysen.