Przeskocz do zawartości głównej Przejdź do treści uzupełniającej

Przeglądanie i ulepszanie modeli

Po zakończeniu pierwszej wersji uczenia modelu należy przeanalizować wynikowe wskaźniki modelu i zalecane modele. Jeśli wymagane są dalsze modyfikacje w celu udoskonalenia modeli, można uruchomić dodatkowe wersje przy użyciu ręcznej optymalizacji modelu.

Po uruchomieniu wersji eksperymentu nastąpi przejście do karty Modele, na której możesz przeanalizować wynikowe wskaźniki modelu. Dostęp do Widoku schematu i Widoku danych można uzyskać po powrocie do karty Dane. Bardziej szczegółową analizę można przeprowadzić na kartach Porównaj i Analizuj.

Ukończenie pierwszej wersji uczenia poznasz po tym, że wszystkie wskaźniki zostaną wypełnione w tabeli Wskaźniki modelu, a obok najskuteczniejszego modelu pojawi się ikona trofeum Trofeum.

InformacjaQlik Predict nieustannie doskonali swoje procesy uczenia modeli. Dlatego po wykonaniu tych ćwiczeń możesz zauważyć, że wskaźniki modelu i inne szczegóły pokazane na tej stronie nie są identyczne z Twoimi.

Analiza tabeli Wskaźniki modelu

Wróć do karty Modele. W sekcji Wskaźniki modelu, zalecane modele są wyróżnione na podstawie wspólnych wymagań jakościowych. Najlepszy model Trofeum został wybrany automatycznie do analizy.

Na podstawie modeli nauczonych w eksperymencie przedstawiono trzy rekomendacje. Pojedynczy model może być reprezentowany przez więcej niż jedną rekomendację. Są to następujące rekomendacje:

  • Trofeum Najlepszy model: model najlepiej równoważący najlepsze wskaźniki dokładności i szybkości przewidywania.

  • Cel Największa dokładność: model uzyskuje najwyższe wyniki w zrównoważonych i surowych wskaźnikach dokładności.

  • Błyskawica Najszybszy model: model ma największą szybkość przewidywania oraz dobre wskaźniki związane z dokładnością.

Ważne jest, aby wybrać model, który najlepiej pasuje do danego zastosowania. W większości przypadków Najlepszy model jest najkorzystniejszą opcją. Dane zastosowanie predykcyjne może jednak wymagać określonych parametrów szybkości przewidywania lub dokładności.

Szczegółowy przegląd sposobu określania najlepszych typów modeli można znaleźć na stronie Wybór najlepszego modelu dla siebie.

Tabela Wskaźniki modelu przedstawiająca polecane modele i ich wskaźniki.

Tabela Wskaźniki modelu przedstawiająca polecane modele i ich kluczowe wskaźniki.

Możesz zawęzić obszar zainteresowania za pomocą rozwijanych filtrów nad rekomendacjami. Najlepsze typy modeli są automatycznie przeliczane przy każdej zmianie filtrowania.

Podstawowe wskaźniki można przełączać selektorem Pokaż wskaźnik nad tabelą. Modele można sortować na podstawie nazwy i wybranego analizowanego wskaźnika.

Modele przetrenowane są oznaczone w tabeli ostrzeżeniem Ostrzeżenie. Modele te nie nadają się do wdrożenia. Przyczyny nadmiernego dopasowania mogą obejmować złożoność modelu wprowadzoną przez algorytmy uczenia oraz problemy z zestawem danych do uczenia. Więcej informacji zawiera temat Przetrenowanie.

Analiza podsumowania uczenia modelu

Możemy teraz skupić się na Podsumowaniu uczenia modelu po prawej stronie interfejsu. To podsumowanie pozwala sprawdzić, jak model i wejściowe dane szkoleniowe zostały zoptymalizowane pod kątem najlepszej wydajności. Podsumowanie uczenia modelu to przegląd ulepszeń zapewnianych przez inteligentną optymalizację modelu.

W podsumowaniu na poniższej ilustracji możemy zobaczyć:

  • Cechy z danych do uczenia zostały odrzucone podczas uczenia i nie zostały włączone do modelu.

  • Współczynnik próbkowania modelu wynosi 100%.

Cecha porzucona z powodu wycieku celu

Cecha DaysSinceLastService została usunięta podczas uczenia z powodu wycieku celu.

W tej kolumnie cechy nie zdefiniowano żadnej logiki podczas gromadzenia danych, aby zatrzymać zliczanie dni od ostatniego zgłoszenia serwisowego w przypadku klientów, którzy anulowali subskrypcję. W rezultacie model mógł się nauczyć kojarzyć dużą liczbę dni od ostatniego zgłoszenia serwisowego (występującą w przypadku klientów, którzy zrezygnowali wiele lat temu) z wartością yes w polu Churned.

Ta cecha musiała zostać usunięta z uczenia, ponieważ powodowałaby bardzo słabą wydajność modelu na nowych danych.

Występujący tu problem zasadniczy nazywa się wyciekiem danych celu i jest formą wycieku danych. Aby uzyskać więcej informacji na temat wycieku danych, zobacz Wyciek danych.

Cechy odrzucone z powodu wysokiej korelacji

Widzimy, że PriorPeriodUsage-Rounded i AdditionalFeatureSpend zostały porzucone podczas uczenia.

W tym przypadku istniała co najmniej jedna kolumna z cechami — PriorPeriodUsage-Rounded — która pochodziła bezpośrednio z innej kolumny w zestawie danych. Inne problemy związane z korelacją zostały wykryte w AdditionalFeatureSpend.

Usunięcie cech powodujących problemy z korelacją jest ważne dla nauczenia modelu wysokiej jakości.

Więcej informacji o korelacji zawiera temat Korelacja.

Cechy odrzucone z powodu niskiej ważności

Kilka cech zostało usuniętych ze względu na niską ważność permutacji. Po wstępnej analizie cechy te zostały zidentyfikowane jako mające bardzo mały wpływ na wyniki celu. Cechy te mogą być postrzegane jako szum statystyczny i zostały usunięte w celu uzyskania korzyści dla jakości modelu.

Więcej informacji na temat ważności permutacji zawiera temat Omówienie ważności permutacji.

Podsumowanie uczenia modelu

Podsumowanie uczenia modelu w eksperymencie uczenia maszynowego pokazujące, jak model został zoptymalizowany pod kątem najlepszej wydajności.

Analizowanie innych wizualizacji na karcie Modele

Inne wizualizacje są dostępne w zakładce Modele do dodatkowej analizy wysokiego poziomu. Wybierz różne modele w tabeli Wskaźniki modelu, aby zapoznać się z wydajnością na poziomie cech i innymi wykresami, które mogą zapewnić wgląd w jakość modelu.

Karta Modele w eksperymencie uczenia maszynowego pokazująca inne wizualizacje dostępne do analizy

Karta Modele w eksperymencie uczenia maszynowego pokazująca inne wizualizacje dostępne do analizy modelu

Porównanie wskaźników uczenia i wstrzymania

Możesz zobaczyć dodatkowe wskaźniki i porównać wskaźniki z uczenia z walidacją krzyżową ze wskaźnikami danych wstrzymania.

  1. W eksperymencie przejdź na kartę Porównaj.

    Zostanie otwarta osadzona analiza. Możesz skorzystać z interaktywnego interfejsu, aby bardziej zagłębić się w analizę porównawczą modelu i odkryć nowe wnioski.

  2. W panelu Arkusze po lewej stronie analizy przejdź do arkusza Szczegóły.

  3. Spójrz na wizualizację Wskaźniki modelu. Pokazuje wskaźniki oceny modelu, takie jak F1, a także inne informacje.

  4. W sekcji Kolumny do wyświetlenia użyj panelu filtrowania, aby dodawać i usuwać kolumny w tabeli.

  5. Na liście rozwijanej dodaj dodatkowe wskaźniki. Wyniki uczenia można dodać do tabeli. Można je dodawać w zależności od potrzeb związanych z analizą.

Możesz teraz zobaczyć wskaźniki F1 z uczenia z walidacją krzyżową i porównać je ze wskaźnikami danych wstrzymania.

Dodawanie i przeglądanie wyników danych do uczenia w celu porównania z wynikami danych wstrzymania

Używanie karty „Porównaj” w eksperymencie do wyświetlenia wyników danych uczenia wraz z wynikami danych wstrzymania

Koncentracja na konkretnym modelu

W dowolnym momencie analizy modelu można przeprowadzić szczegółową analizę pojedynczego modelu. Interaktywne funkcje umożliwiają przeglądanie dokładności predykcji, ważności cech i rozkładu cech.

  1. Wybierz dowolny model i kliknij kartę Analizuj.

    Zostanie otwarta osadzona analiza.

  2. Za pomocą arkusza Przegląd modelu można analizować dokładność predykcji modelu. Analizę ulepsza się przy użyciu wyborów. Kliknij cechę lub przewidywaną wartość, aby dokonać wyboru. Dane we wbudowanej analizie dostosowują się w celu filtrowania danych. Można drążyć określone wartości i zakresy cech, aby zobaczyć, jak zmienia się wpływ cech i dokładność predykcji.

  3. Po przełączeniu na inne arkusze można przeglądać wizualizacje dotyczące dokładności predykcji, rozkładu cech i rozkładu wpływu (SHAP). Te treści analityczne mogą pomóc w wykonywaniu następujących zadań:

    • Odkrywanie kluczowych czynników wpływających na trendy w danych.

    • Identyfikacja, jak określone cechy i kohorty wpływają na przewidywane wartości i dokładność predykcji.

    • Identyfikacja wartości odstających w danych.

Karta Analizuj w eksperymencie uczenia maszynowego

Korzystanie z karty „Analizuj” w celu ulepszenia analizy dzięki wyborom

Następne kroki

Po uruchomieniu wersji eksperymentu z inteligentną optymalizacją modelu można w razie potrzeby uruchomić wersje ręczne, aby udoskonalić modele. Aby szybko utworzyć nową wersję ręczną, można wrócić do karty Modele i kliknąć Nowa wersja ręczna w Podsumowaniu uczenia modelu.

W warunkach rzeczywistych ważne jest, aby przed wdrożeniem modelu powtórzyć kroki ulepszania tyle razy, ile potrzeba, by mieć pewność, że ma się najlepszy możliwy model do konkretnego zastosowania.

Więcej informacji o ulepszaniu modeli zawiera temat Ulepszanie modeli.

W tym kursie przejdź do następnej sekcji dotyczącej wdrażania modelu.

Czy ta strona była pomocna?

Jeżeli natkniesz się na problemy z tą stroną lub jej zawartością — literówkę, brakujący krok lub błąd techniczny — daj nam znać!