Affichage des scores des modèles
La vue Modèle montre un ensemble d'informations provenant de la formation des algorithmes d'apprentissage automatique. Les métriques et les graphiques vous permettent de comparer différents modèles d'une version d'expérimentation ou différentes versions d'expérimentation. Examinez les métriques pour voir le niveau de performances du modèle et comment affiner le modèle pour améliorer le score.
L'algorithme le mieux adapté à une version d’expérimentation est automatiquement sélectionné et marqué de l'icône . L'évaluation est basée sur le score F1 pour les modèles de classification et sur le score R2 pour les modèles de régression.
Si un modèle a déjà été déployé dans un déploiement ML, cliquez sur l'icône pour ouvrir le déploiement. Si un ou plusieurs déploiements ont été créés à partir du même modèle, cliquez sur , puis sur pour ouvrir le déploiement ML souhaité.
Affichage des métriques dans un tableau
Les métriques disponibles varient en fonction du type de problème d'apprentissage automatique.
Procédez comme suit :
-
Dans le coin supérieur droit du tableau Métriques du modèle, cliquez sur .
-
Sélectionnez les métriques à afficher.
Affichage des métriques du modèle
Il existe différents filtres que vous pouvez utiliser lors de l'affichage des métriques du modèle. Développez les menus déroulants qui se trouvent juste au-dessus du tableau Métriques du modèle pour explorer les options de filtrage de vos modèles.
Vous pouvez filtrer des modèles par version d'expérimentation et algorithme utilisé. Pour inclure les métriques du modèle le plus performant, utilisez le filtre Meilleurs résultats. Le filtre Modèle sélectionné inclura les métriques de modèle du modèle sélectionné. Utilisez le filtre Déployé pour inclure les métriques des modèles déployés.
Si vous combinez des filtres, les métriques de modèle correspondant à l'un des filtres seront affichées.
Comparaison entre scores de rétention et scores d'apprentissage
Les métriques affichées sur la vue Modèle sont basées sur les données de rétention automatique utilisées pour valider les performances du modèle après l'apprentissage. Vous pouvez également afficher les métriques d'apprentissage générées lors de la validation croisée et les comparer aux métriques de rétention. Activez ou désactivez Afficher les métriques des données d'apprentissage pour afficher les colonnes des scores du modèle de données d'apprentissage. Ces scores seront souvent similaires ; mais, s'ils varient considérablement, il est probable qu'il y ait un problème de fuite de données ou de surapprentissage.
Procédez comme suit :
-
Dans le tableau Métriques du modèle, sélectionnez un modèle.
-
Cliquez sur Afficher les métriques des données d'apprentissage.
Affichage des valeurs des hyperparamètres
Vous pouvez afficher les valeurs des hyperparamètres utilisées par chaque algorithme pour l'apprentissage. Pour plus d'informations sur les hyperparamètres, voir Optimisation des hyperparamètres.
Procédez comme suit :
-
Dans le tableau Métriques du modèle, cliquez sur dans la colonne Hyperparamètres.
Les valeurs des hyperparamètres apparaissent dans une fenêtre contextuelle.
Affichage de la configuration de l'expérimentation
Le volet Configuration de l'expérimentation montre la configuration de la version de l'expérimentation du modèle sélectionné.
Procédez comme suit :
-
Sélectionnez un modèle dans une version d'expérimentation.
-
Cliquez sur ou sur Afficher la configuration pour ouvrir le volet Configuration de l'expérimentation.