Zu Hauptinhalt springen Zu ergänzendem Inhalt springen

Hyperparameteroptimierung

Modelle für maschinelles Lernen erfordern verschiedene Beschränkungen, Gewichtungen oder Lernraten, um verschiedene Datenmuster zu generalisieren. Diese Kennzahlen werden als Hyperparameter bezeichnet und werden zum Steuern des Lernprozesses verwendet. Die Hyperparameter müssen feinabgestimmt werden, damit das Modell die Aufgabe für maschinelles Lernen optimal lösen kann.

Standardmäßig verwendet AutoML einen vordefinierten Satz von Hyperparameterwerten für jeden Algorithmus, der im Modelltraining verwendet wird. Dabei handelt es sich um standardmäßige, optimierte Werte die allgemein von der Data Science-Community akzeptiert werden. Die Kombination aus Hyperparameterwerten mit der besten Leistung wird automatisch ausgewählt.

In manchen Fällen können Sie das Modell aber feinabstimmen, um optimale Vorhersageergebnisse zu erhalten. Das ist mit der Hyperparameteroptimierung (HPO) möglich.

AutoML führt Hyperparameteroptimierung nur für den besten Algorithmus des Satzes durch, den Sie in der Experimentkonfiguration ausgewählt haben. Zuerst wird eine zufällige Suche ausgeführt, und dann eine Rastersuche, um die besten Hyperparameter für den Algorithmus zu finden.

Vor Verwenden der Hyperparameteroptimierung müssen einige wichtige Punkte berücksichtigt werden:

  • Verwenden Sie keine Hyperparameteroptimierung, wenn Sie ein Modell erstmals trainieren. Sie ist dafür ausgelegt, verwendet zu werden, nachdem Sie Ihr Modell trainiert haben und mit den Ergebnissen zufrieden sind. Für diesen Prozess sind häufig eine wiederholte Verfeinerung und erneutes Training erforderlich.

  • Hyperparameteroptimierung erfordert einen erheblichen Zeitaufwand. Wenn der Trainingsprozess für Ihr Modell unter Verwendung der standardmäßigen vordefinierten Hperparameterwerte fünf Minuten dauert, kann das Trainieren des gleichen Modells mit aktivierter Hyperparameteroptimierung Stunden dauern.

Verwendete Algorithmen bei der Hyperparameteroptimierung

Die Hyperparameteroptimierung ist auf spezifische Algorithmen und Modelltypen beschränkt. Sie ist spezifisch dafür ausgelegt, mit den folgenden Modelltypen und Algorithmen zu funktionieren:

  • Binärklassifikationsmodelle

    • CatBoost-Klassifikation

    • Elastic Net-Regression

    • Lasso-Regression

    • LightGBM-Klassifikation

    • Logistische Regression

    • Random Forest-Klassifikation

    • XGBoost-Klassifikation

  • Regressionsmodelle

    • CatBoost-Regression

    • LightGBM-Regression

    • Random Forest-Regression

    • XGBoost-Regression

Aktivieren der Hyperparameteroptimierung

Sie können die Hyperparameteroptimierung im Fenster Experimentkonfiguration unter Modelloptimierung aktivieren.

Anzeigen von Hyperparameterwerten

Um die für ein Modell verwendeten Hyperparameterwerte anzuzeigen, klicken Sie auf Hyperparameter in der Spalte Hyperparameter der Tabelle Modellmetriken.

Weitere Informationen

Hat diese Seite Ihnen geholfen?

Wenn Sie Probleme mit dieser Seite oder ihren Inhalten feststellen – einen Tippfehler, einen fehlenden Schritt oder einen technischen Fehler –, teilen Sie uns bitte mit, wie wir uns verbessern können!