Optimización de hiperparámetros
Los modelos de aprendizaje automático requieren diferentes restricciones, pesos o tasas de aprendizaje para generalizar diferentes patrones de datos. Estas medidas se denominan hiperparámetros y se utilizan para controlar el proceso de aprendizaje. Los hiperparámetros deben ajustarse para que el modelo pueda resolver de manera óptima el problema de aprendizaje automático.
De forma predeterminada, AutoML utiliza un conjunto predefinido de valores de hiperparámetros para cada algoritmo que se usa en el entrenamiento del modelo. Estos son los valores estándar optimizados que generalmente acepta la comunidad de ciencia de datos. La combinación de valores de hiperparámetro de mayor rendimiento se selecciona automáticamente.
No obstante, en algunos casos es posible que desee ajustar el modelo para obtener resultados predictivos óptimos. Esto se puede hacer utilizando la optimización de hiperparámetros (HPO).
AutoML ejecuta la optimización de hiperparámetros solo para el mejor algoritmo del conjunto que seleccionó en la configuración del experimento. Primero, se ejecuta una búsqueda aleatoria y luego una búsqueda en cuadrícula para encontrar los mejores hiperparámetros para el algoritmo.
Hay algunas cosas importantes que considerar antes de usar la optimización de hiperparámetros:
-
No utilice la optimización de hiperparámetros la primera vez que entrene un modelo. Está diseñado para usarse después de que haya entrenado su modelo y esté satisfecho con los resultados. Ese proceso suele requerir perfeccionamiento y entrenamiento repetidos.
-
La optimización de hiperparámetros agrega un tiempo considerable. Si el proceso de entrenamiento para su modelo tarda cinco minutos en usar los valores de hiperparámetros estándar predefinidos, entrenar ese mismo modelo con la optimización de hiperparámetros habilitada podría tomar horas.
Algoritmos utilizados en la optimización de hiperparámetros
La optimización de hiperparámetros se limita a algoritmos y tipos de modelos específicos. Está específicamente diseñada para trabajar con los siguientes tipos de modelos y algoritmos:
-
Modelos de clasificación binaria
-
Clasificación Catboost
-
Regresión neta elástica
-
Regresión Lasso
-
Clasificación LightGBM
-
Regresión logística
-
Clasificación Random Forest
-
Clasificación XGBoost
-
-
Modelos de regresión
-
Regresión Catboost
-
Regresión LightGBM
-
Regresión Random Forest
-
Regresión XGBoost
-
Habilitar la optimización de hiperparámetros
Haga lo siguiente:
En un experimento, haga clic en Ver configuración.
Se abre el panel de configuración del experimento.
Si es necesario, haga clic en Nueva versión para configurar la siguiente versión.
En el panel, expanda Optimización del modelo.
Cambie de Inteligente a Manual.
La optimización de hiperparámetros no está disponible con la optimización inteligente de modelos.
Haga clic en la casilla de verificación Optimización de hiperparámetros.
Ver los valores de hiperparámetros
Visualice los valores de los hiperparámetros en la pestaña Comparar durante el análisis detallado del modelo. Para obtener más información, consulte Realización de análisis detallados de modelos.