Optimisation des hyperparamètres
Les modèles d'apprentissage automatique requièrent des contraintes, pondérations ou taux d'apprentissage différents pour généraliser des patterns de données différents. Ces mesures sont appelées hyperparamètres et sont utilisées pour contrôler le processus d'apprentissage. Les hyperparamètres doivent être finement réglés pour que le modèle puisse résoudre le problème d'apprentissage automatique de manière optimale.
Par défaut, AutoML utilise un ensemble prédéfini de valeurs d'hyperparamètre pour chaque algorithme employé lors de l'apprentissage de modèles. Il s'agit des valeurs standard optimisées généralement acceptées par la communauté de la data Science. La combinaison de valeurs d'hyperparamètre la plus performante est automatiquement sélectionnée.
Cependant, dans certains cas, vous souhaiterez peut-être affiner le modèle afin d'obtenir des résultats prédictifs optimaux. Vous pouvez y parvenir via l'Optimisation des hyperparamètres (HPO).
AutoML exécute l'optimisation des hyperparamètres uniquement pour le meilleur algorithme de l'ensemble que vous avez sélectionné dans la configuration de l'expérimentation. Pour commencer, une recherche aléatoire est lancée, puis une recherche par grille, pour trouver les meilleurs hyperparamètres pour l'algorithme.
Avant d'utiliser l'optimisation des hyperparamètres, il convient de tenir compte de quelques points importants :
-
N'utilisez pas l'optimisation des hyperparamètres la première fois que vous formez un modèle. Elle est conçue pour être utilisée une fois que vous avez formé le modèle et que vous êtes satisfait des résultats. Ce processus nécessite souvent un affinement et un réapprentissage répétés.
-
L'optimisation des hyperparamètres augmente considérablement le temps de traitement. Si le processus d'apprentissage de votre modèle prend cinq minutes via les valeurs d'hyperparamètre prédéfinies standard, l'apprentissage de ce même modèle avec l'optimisation des hyperparamètres activée peut prendre des heures.
Algorithmes utilisés dans le cadre de l'optimisation des hyperparamètres
L'optimisation des hyperparamètres est limitée à des algorithmes et des types de modèle spécifiques. Elle est spécifiquement conçue pour fonctionner avec les types de modèle et algorithmes suivants :
-
Modèles de classification binaire
-
Classification CatBoost
-
Régression du filet élastique
-
Régression Lasso
-
Classification LightGBM
-
Régression logistique
-
Classification Forêt d'arbres décisionnels
-
Classification XGBoost
-
-
Modèles de régression
-
Régression CatBoost
-
Régression LightGBM
-
Régression Forêt d'arbres décisionnels
-
Régression XGBoost
-
Activation de l'optimisation des hyperparamètres
Procédez comme suit :
Dans une expérimentation, cliquez sur Afficher la configuration.
Le panneau Configuration de l'expérimentation s'ouvre.
Si nécessaire, cliquez sur Nouvelle version pour configurer la version suivante.
Dans le panneau, développez Optimisation du modèle.
Passez de Intelligente à Manuelle.
L'optimisation des hyperparamètres n'est pas disponible avec l'optimisation de modèle intelligente.
Cochez la case Optimisation des hyperparamètres.
Affichage des valeurs des hyperparamètres
Affichez les valeurs des hyperparamètres dans l'onglet Comparer lors de l'analyse de modèle détaillée. Pour plus d'informations, consultez Réalisation d'une analyse de modèle détaillée.