Zu Hauptinhalt springen Zu ergänzendem Inhalt springen

Anzeigen der Modell-Scores

Die Modellansicht zeigt eine Sammlung von Einblicken aus dem Training von Algorithmen für maschinelles Lernen. Anhand von Metriken und Diagrammen können Sie verschiedene Modelle innerhalb einer Experimentversion oder in verschiedenen Experimentversionen vergleichen. Prüfen Sie die Metriken, um festzustellen, wie gut die Modellleistung war und wie Sie das Modell verfeinern können, um seinen Score zu verbessern.

Der für eine Experimentversion am besten passende Algorithmus wird automatisch ausgewählt und mit Trophäe markiert. Die Bewertung basiert auf dem F1-Score in Klassifikationsmodellen bzw. auf dem R2-Score in Regressionsmodellen.

Wenn ein Modell bereits in einer ML-Bereitstellung bereitgestellt wurde, klicken Sie auf das Symbol ML-Bereitstellung, um die Bereitstellung zu öffnen. Wenn eine oder mehrere Bereitstellungen aus dem gleichen Modell erstellt wurden, klicken Sie auf ML-Bereitstellung und dann auf Öffnen, um die gewünschte ML-Bereitstellung zu öffnen.

In der Modellansicht mit Metriktabelle und Diagrammvisualisierungen können Sie die Modellleistung prüfen.

Die AutoML-Modellansicht.

Anzeigen von Metriken in der Tabelle

Je nach Typ der Aufgabe für maschinelles Lernen stehen verschiedene Metriken zur Verfügung.

  1. Klicken Sie oben rechts in der Tabelle Modellmetriken auf Spaltenauswahl.

  2. Wählen Sie die Metriken aus, die Sie anzeigen möchten.

Anzeigen von Modellmetriken

Beim Anzeigen von Modellmetriken können mehrere Filter verwendet werden, Erweitern Sie die Dropdown-Menüs direkt oberhalb der Tabelle Modellmetriken, um die Filteroptionen für Ihre Modelle zu prüfen.

Sie können Modelle nach Experimentversion und verwendetem Algorithmus filtern. Um die Metriken für das Modell mit der besten Leistung einzuschließen, verwenden Sie den Filter Modelle mit bester Leistung. Der Filter Ausgewähltes Modell umfasst Modellmetriken für das von Ihnen ausgewählte Modell. Verwenden Sie den Filter Bereitgestellt, um Metriken für Modelle einzuschließen, die bereitgestellt wurden.

Beim Kombinieren von Filtern werden alle Modellmetriken angezeigt, die einem der angewendeten Filter entsprechen.

Überprüfen eines Modells

Modellmetriktabelle mit nach „Modell mit bester Leistung“ gefilterten Ergebnissen und Modellen mit dem Algorithmus „CatBoost“.

Vergleichen von Holdout-Scores und Trainings-Scores

Die in der Modellansicht angezeigten Metriken basieren auf den automatischen Holdout-Daten, die zum Validieren der Modellleistung nach dem Training verwendet werden. Sie können auch die Trainingsmetriken anzeigen, die während der Kreuzvalidierung generiert wurden, und sie mit den Holdout-Metriken vergleichen. Aktivieren oder deaktivieren Sie Metriken der Trainingsdaten anzeigen, um die Spalten für Trainingsdatenmodell-Scores anzuzeigen. Diese Scores sind oft ähnlich, aber wenn sie signifikant variieren, liegt wahrscheinlich ein Problem mit Datenlecks oder Überanpassung vor.

  1. Wählen Sie in der Tabelle Modellmetriken ein Modell aus.

  2. Klicken Sie auf Metriken der Trainingsdaten anzeigen.

Tabelle „Modellmetriken“ mit Metriken für Holdout- und Trainingsdaten

Metriken der Trainingsdaten anzeigen

Anzeigen von Hyperparameterwerten

Sie können die Hyperparameterwerte anzeigen, die von den einzelnen Algorithmen für das Training verwendet wurden. Weitere Informationen zu Hyperparametern finden Sie unter Hyperparameteroptimierung.

  • Klicken Sie in der Tabelle Modellmetriken in der Spalte Hyperparameter auf Hyperparameter.

    Die Hyperparameterwerte werden in einem Popup-Fenster angezeigt.

Anzeigen von Hyperparameterwerten

Zeigen Sie Hyperparameterwerte in der Tabelle „Modellmetriken“ an.

Anzeigen der Experimentkonfiguration

Im Fenster Experimentkonfiguration wird die Experimentversionskonfiguration für das aktuell ausgewählte Modell angezeigt.

  1. Wählen Sie ein Modell in einer Experimentversion aus.

  2. Klicken Sie auf Fenster „Konfiguration“ oder auf Konfiguration anzeigen, um das Fenster Experimentkonfiguration zu öffnen.

Experimentkonfiguration

Fenster „Experimentkonfiguration“.

Weitere Informationen

Hat diese Seite Ihnen geholfen?

Wenn Sie Probleme mit dieser Seite oder ihren Inhalten feststellen – einen Tippfehler, einen fehlenden Schritt oder einen technischen Fehler –, teilen Sie uns bitte mit, wie wir uns verbessern können!