Przeskocz do zawartości głównej Przejdź do treści uzupełniającej

Wyświetlanie ocen modeli

Widok modelu przedstawia zbiór wniosków z uczenia algorytmów uczenia maszynowego. Wskaźniki i wykresy pozwalają porównywać różne modele w ramach jednej wersji eksperymentu lub między różnymi wersjami. Przejrzyj wskaźniki, aby sprawdzić, jak dobrze radził sobie model i jak możesz go ulepszyć, aby poprawić wynik.

Algorytm najlepiej pasujący do wersji eksperymentu jest wybierany automatycznie i oznaczany symbolem Trofeum. Ocena opiera się na wyniku F1 w modelach z klasyfikacją i wyniku R2 w modelach z regresją.

Jeśli model został już wdrożony we wdrożeniu uczenia maszynowego, kliknij ikonę Wdrożenie uczenia maszynowego, aby otworzyć to wdrożenie. Jeśli z tego samego modelu utworzono jedno lub więcej wdrożeń, kliknij Wdrożenie uczenia maszynowego, a następnie Otwórz, aby otworzyć żądane wdrożenie uczenia maszynowego.

Widok modelu z tabelą wskaźników i wizualizacjami wykresów umożliwia przeglądanie skuteczności modelu

Widok modelu AutoML.

Wyświetlanie wskaźników w tabeli

W zależności od typu problemu uczenia maszynowego dostępne są różne wskaźniki.

  1. W prawym górnym rogu tabeli Wskaźniki modelu kliknij Selektor kolumny.

  2. Wybierz wskaźniki, które chcesz wyświetlić.

Wyświetlanie wskaźników modelu

Podczas przeglądania wskaźników modelu można korzystać z różnych filtrów. Rozwiń menu rozwijane znajdujące się bezpośrednio nad tabelą Wskaźniki modelu, aby zapoznać się z opcjami filtrowania modeli.

Modele można filtrować według wersji eksperymentu i użytego algorytmu. Aby uwzględnić wskaźniki modelu o najwyższej skuteczności, użyj filtru Z najlepszymi wskaźnikami. Filtr Wybrany model będzie zawierać wskaźniki modelu dla wybranego modelu. Użyj filtru Wdrożono, aby uwzględnić wskaźniki dla modeli, które zostały wdrożone.

Podczas łączenia filtrów zostaną wyświetlone wskaźniki modelu pasujące do któregokolwiek z zastosowanych filtrów.

Sprawdzanie modelu

Tabela wskaźników modelu z wynikami filtrowanymi według „Z najlepszymi wskaźnikami” i modelami wykorzystującymi algorytm CatBoost.

Porównanie wyników danych wstrzymania i wyników uczenia

Wskaźniki wyświetlane w widoku modelu są oparte na danych automatycznego wstrzymania, które są używane do sprawdzania wydajności modelu po uczeniu. Możesz również wyświetlić wskaźniki uczenia, które zostały wygenerowane podczas sprawdzania krzyżowego, i porównać je z wskaźnikami danych wstrzymania. Włącz lub wyłącz opcję Pokaż wskaźniki danych do uczenia, aby wyświetlić kolumny z wynikami modelu danych do uczenia. Te wyniki często są podobne, ale jeśli znacznie się różnią, prawdopodobnie występuje problem z wyciekiem danych lub przetrenowaniem.

  1. W tabeli Wskaźniki modelu wybierz model.

  2. Kliknij Pokaż wskaźniki danych do uczenia.

Tabela wskaźników modelu z wskaźnikami danych wstrzymania i danych do uczenia

Pokaż wskaźniki danych do uczenia

Wyświetlanie wartości hiperparametrów

Możesz wyświetlić wartości hiperparametrów używane do uczenia przez każdy algorytm. Więcej informacji na temat hiperparametrów zawiera temat Optymalizacja hiperparametrów.

  • W tabeli Wskaźniki modelu kliknij Hiperparametry w kolumnie Hiperparametry.

    Wartości hiperparametrów są wyświetlane w wyskakującym oknie.

Wyświetlanie wartości hiperparametrów

Wyświetl wartości hiperparametrów w tabeli wskaźników modelu.

Wyświetlanie konfiguracji eksperymentu

Panel Konfiguracja eksperymentu pokazuje konfigurację wersji eksperymentu dla aktualnie wybranego modelu.

  1. Wybierz model w wersji eksperymentu.

  2. Kliknij Panel konfiguracji lub Wyświetl konfigurację, aby otworzyć panel Konfiguracja eksperymentu.

Konfiguracja eksperymentu

Panel Konfiguracja eksperymentu.

Dowiedz się więcej

Czy ta strona była pomocna?

Jeżeli natkniesz się na problemy z tą stroną lub jej zawartością — literówkę, brakujący krok lub błąd techniczny — daj nam znać, co możemy poprawić!