Przeskocz do zawartości głównej Przejdź do treści uzupełniającej

Monitorowanie wydajności i wykorzystania wdrożonych modeli

Podczas korzystania z wdrożenia ML do generowania predykcji można monitorować wydajność modelu źródłowego, analizując dryf danych w czasie. Można wyświetlić szczegółowe informacje na temat wykorzystania wdrożenia do predykcji, takie jak sposób uruchomienia predykcji i wskaźnik niepowodzeń predykcji.

Monitorowanie wdrożonych modeli i wdrożeń ML odbywa się za pomocą wbudowanej analityki.

Monitorowanie dryfu danych

Dzięki monitorowaniu dryfu danych można przeanalizować, jak dane wejściowe do predykcji modelu zmieniły się w czasie i jak różnią się one od oryginalnego zestawu danych do uczenia. Dzięki tym narzędziom można określić punkt, w którym model wymaga ponownego uczenia lub wymiany z powodu znacznego dryfu cech.

Więcej informacji o monitorowaniu dryfu danych w AutoML zawiera temat Monitorowanie dryfu danych we wdrożonych modelach.

Ogólne informacje na temat dryfu danych można znaleźć na stronie Dryf danych.

Monitorowanie operacji

Ponieważ wdrożenie ML jest wykorzystywane do tworzenia predykcji, pomocne jest monitorowanie szczegółów dotyczących jego działania. Dzięki monitorowaniu operacji w AutoML można:

  • Wyświetlać liczbę żądań, prognoz i niepowodzeń prognoz dla wdrożenia.

  • Analizować zdarzenia predykcji według wyzwalacza (na przykład, ile z nich zostało początkowo wykonanych ręcznie, a ile zgodnie z harmonogramem).

  • Wyświetlać szczegółowy dziennik pokazujący każde zdarzenie predykcji wraz z kluczowymi szczegółami.

Więcej informacji zawiera temat Monitorowanie operacji wdrożonego modelu.

Czy ta strona była pomocna?

Jeżeli natkniesz się na problemy z tą stroną lub jej zawartością — literówkę, brakujący krok lub błąd techniczny — daj nam znać, co możemy poprawić!