Saltar al contenido principal Saltar al contenido complementario

Optimización de hiperparámetros

Los modelos de aprendizaje automático requieren diferentes restricciones, pesos o tasas de aprendizaje para generalizar diferentes patrones de datos. Estas medidas se denominan hiperparámetros y se utilizan para controlar el proceso de aprendizaje. Los hiperparámetros deben ajustarse para que el modelo pueda resolver de manera óptima el problema de aprendizaje automático.

De forma predeterminada, AutoML utiliza un conjunto predefinido de valores de hiperparámetros para cada algoritmo que se usa en el entrenamiento del modelo. Estos son los valores estándar optimizados que generalmente acepta la comunidad de ciencia de datos. La combinación de valores de hiperparámetro de mayor rendimiento se selecciona automáticamente.

No obstante, en algunos casos es posible que desee ajustar el modelo para obtener resultados predictivos óptimos. Esto se puede hacer utilizando la optimización de hiperparámetros (HPO).

AutoML ejecuta la optimización de hiperparámetros solo para el mejor algoritmo del conjunto que seleccionó en la configuración del experimento. Primero, se ejecuta una búsqueda aleatoria y luego una búsqueda en cuadrícula para encontrar los mejores hiperparámetros para el algoritmo.

Hay algunas cosas importantes que considerar antes de usar la optimización de hiperparámetros:

  • No utilice la optimización de hiperparámetros la primera vez que entrene un modelo. Está diseñado para usarse después de que haya entrenado su modelo y esté satisfecho con los resultados. Ese proceso a menudo requiere un refinamiento y entrenamiento repetidos.

  • La optimización de hiperparámetros agrega un tiempo considerable. Si el proceso de entrenamiento para su modelo tarda cinco minutos en usar los valores de hiperparámetros estándar predefinidos, entrenar ese mismo modelo con la optimización de hiperparámetros habilitada podría tomar horas.

Algoritmos utilizados en la optimización de hiperparámetros

La optimización de hiperparámetros se limita a algoritmos y tipos de modelos específicos. Está específicamente diseñada para trabajar con los siguientes tipos de modelos y algoritmos:

  • Modelos de clasificación binaria

    • Clasificación Catboost

    • Regresión neta elástica

    • Regresión Lasso

    • Clasificación LightGBM

    • Regresión logística

    • Clasificación Random Forest

    • Clasificación XGBoost

  • Modelos de regresión

    • Regresión Catboost

    • Regresión LightGBM

    • Regresión Random Forest

    • Regresión XGBoost

Habilitar la optimización de hiperparámetros

La optimización de hiperparámetros se habilita en el panel Configuración del experimento, en Optimización del modelo.

Ver los valores de hiperparámetros

Para ver los valores de hiperparámetros utilizados para un modelo, haga clic en Hiperparámetros, en la columna Hiperparámetros de la tabla Métricas del modelo.

Más información

¿Esta página le ha sido útil?

No dude en indicarnos en qué podemos mejorar si encuentra algún problema en esta página o su contenido, como, por ejemplo, errores tipográficos, pasos que falta o errores técnicos.