Accéder au contenu principal Passer au contenu complémentaire

Optimisation des hyperparamètres

Les modèles d'apprentissage machine requièrent des contraintes, pondérations ou taux d'apprentissage différents pour généraliser des patterns de données différents. Ces mesures sont appelées hyperparamètres et sont utilisées pour contrôler le processus d'apprentissage. Les hyperparamètres doivent être finement réglés pour que le modèle puisse résoudre le problème d'apprentissage machine de manière optimale.

Par défaut, AutoML utilise un ensemble prédéfini de valeurs d'hyperparamètre pour chaque algorithme employé lors de l'apprentissage de modèles. Il s'agit des valeurs standard optimisées généralement acceptées par la communauté de la data Science. La combinaison de valeurs d'hyperparamètre la plus performante est automatiquement sélectionnée.

Cependant, dans certains cas, vous souhaiterez peut-être affiner le modèle afin d'obtenir des résultats prédictifs optimaux. Vous pouvez y parvenir via l'Optimisation des hyperparamètres (HPO).

AutoML exécute l'optimisation des hyperparamètres uniquement pour le meilleur algorithme de l'ensemble que vous avez sélectionné dans la configuration de l'expérimentation. Pour commencer, une recherche aléatoire est lancée, puis une recherche par grille, pour trouver les meilleurs hyperparamètres pour l'algorithme.

Avant d'utiliser l'optimisation des hyperparamètres, il convient de tenir compte de quelques points importants :

  • N'utilisez pas l'optimisation des hyperparamètres la première fois que vous formez un modèle. Elle est conçue pour être utilisée une fois que vous avez formé le modèle et que vous êtes satisfait des résultats. Ce processus nécessite souvent un affinement et un réapprentissage répétés.

  • L'optimisation des hyperparamètres augmente considérablement le temps de traitement. Si le processus d'apprentissage de votre modèle prend cinq minutes via les valeurs d'hyperparamètre prédéfinies standard, l'apprentissage de ce même modèle avec l'optimisation des hyperparamètres activée peut prendre des heures.

Algorithmes utilisés dans le cadre de l'optimisation des hyperparamètres

L'optimisation des hyperparamètres est limitée à des algorithmes et des types de modèle spécifiques. Elle est spécifiquement conçue pour fonctionner avec les types de modèle et algorithmes suivants :

  • Modèles de classification binaire

    • Classification CatBoost

    • Régression du filet élastique

    • Régression Lasso

    • Classification LightGBM

    • Régression logistique

    • Classification Forêt d'arbres décisionnels

    • Classification XGBoost

  • Modèles de régression

    • Régression CatBoost

    • Régression LightGBM

    • Régression Forêt d'arbres décisionnels

    • Régression XGBoost

Activation de l'optimisation des hyperparamètres

L'activation de l'optimisation des hyperparamètres s'effectue dans le volet Configuration de l'expérimentation sous Optimisation du modèle.

Affichage des valeurs des hyperparamètres

Pour afficher les valeurs des hyperparamètres d'un modèle, cliquez sur l'icône Hyperparamètres de la colonne Hyperparamètres du tableau Métriques du modèle.

En savoir plus

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – dites-nous comment nous améliorer !