Surveillance des performances et de l'utilisation des modèles déployés
À mesure que vous utilisez votre déploiement ML pour générer des prédictions, vous pouvez surveiller les performances du modèle source en analysant la dérive des données au fil du temps. Vous pouvez également afficher des détails sur l'utilisation du déploiement ML pour les prédictions, comme le mode de déclenchement des prédictions et le taux d'échec des prédictions.
La surveillance des modèles déployés et des déploiements ML est effectuée à l'aide d'analyses intégrées.
Surveillance de la dérive des données
Grâce à la surveillance de la dérive des données, vous pouvez analyser la manière dont les données d'entrée des prédictions du modèle ont changé au fil du temps et en quoi elles diffèrent du jeu de données d'apprentissage d'origine. Grâce à ces outils, vous pouvez déterminer le moment où l'apprentissage de votre modèle doit être renouvelé ou le moment où votre modèle doit être remplacé en raison d'une dérive importante des caractéristiques.
Pour plus d'informations sur la surveillance de la dérive des données dans AutoML, consultez Surveillance de la dérive des données dans les modèles déployés.
Pour des informations générales sur la dérive des données, consultez Dérive des données.
Surveillance des opérations
Comme votre déploiement ML est utilisé pour créer des prédictions, il est utile de surveiller les détails de ses opérations. Grâce à la surveillance des opérations dans AutoML, vous pouvez effectuer les opérations suivantes :
-
Afficher le nombre de demandes, de prédictions et d'échecs de prédiction du déploiement.
-
Analyser les événements de prédiction par déclencheur (par exemple, le nombre de prédictions initialement effectuées manuellement ou selon un calendrier).
-
Afficher un journal détaillé montrant chaque événement de prédiction avec des détails clés.
Pour plus d'informations, consultez Surveillance des opérations des modèles déployés.