Anzeigen der Modell-Scores
Die Modellansicht zeigt eine Sammlung von Einblicken aus dem Training von Algorithmen für maschinelles Lernen. Anhand von Metriken und Diagrammen können Sie verschiedene Modelle innerhalb einer Experimentversion oder in verschiedenen Experimentversionen vergleichen. Prüfen Sie die Metriken, um festzustellen, wie gut die Modellleistung war und wie Sie das Modell verfeinern können, um seinen Score zu verbessern.
Der für eine Experimentversion am besten passende Algorithmus wird automatisch ausgewählt und mit markiert. Die Bewertung basiert auf dem F1-Score in Klassifikationsmodellen bzw. auf dem R2-Score in Regressionsmodellen.
Wenn ein Modell bereits in einer ML-Bereitstellung bereitgestellt wurde, klicken Sie auf das Symbol , um die Bereitstellung zu öffnen. Wenn eine oder mehrere Bereitstellungen aus dem gleichen Modell erstellt wurden, klicken Sie auf und dann auf , um die gewünschte ML-Bereitstellung zu öffnen.
Anzeigen von Metriken in der Tabelle
Je nach Typ der Aufgabe für maschinelles Lernen stehen verschiedene Metriken zur Verfügung.
Gehen Sie folgendermaßen vor:
-
Klicken Sie oben rechts in der Tabelle Modellmetriken auf .
-
Wählen Sie die Metriken aus, die Sie anzeigen möchten.
Anzeigen von Modellmetriken
Beim Anzeigen von Modellmetriken können mehrere Filter verwendet werden, Erweitern Sie die Dropdown-Menüs direkt oberhalb der Tabelle Modellmetriken, um die Filteroptionen für Ihre Modelle zu prüfen.
Sie können Modelle nach Experimentversion und verwendetem Algorithmus filtern. Um die Metriken für das Modell mit der besten Leistung einzuschließen, verwenden Sie den Filter Modelle mit bester Leistung. Der Filter Ausgewähltes Modell umfasst Modellmetriken für das von Ihnen ausgewählte Modell. Verwenden Sie den Filter Bereitgestellt, um Metriken für Modelle einzuschließen, die bereitgestellt wurden.
Beim Kombinieren von Filtern werden alle Modellmetriken angezeigt, die einem der angewendeten Filter entsprechen.
Vergleichen von Holdout-Scores und Trainings-Scores
Die in der Modellansicht angezeigten Metriken basieren auf den automatischen Holdout-Daten, die zum Validieren der Modellleistung nach dem Training verwendet werden. Sie können auch die Trainingsmetriken anzeigen, die während der Kreuzvalidierung generiert wurden, und sie mit den Holdout-Metriken vergleichen. Aktivieren oder deaktivieren Sie Metriken der Trainingsdaten anzeigen, um die Spalten für Trainingsdatenmodell-Scores anzuzeigen. Diese Scores sind oft ähnlich, aber wenn sie signifikant variieren, liegt wahrscheinlich ein Problem mit Datenlecks oder Überanpassung vor.
Gehen Sie folgendermaßen vor:
-
Wählen Sie in der Tabelle Modellmetriken ein Modell aus.
-
Klicken Sie auf Metriken der Trainingsdaten anzeigen.
Anzeigen von Hyperparameterwerten
Sie können die Hyperparameterwerte anzeigen, die von den einzelnen Algorithmen für das Training verwendet wurden. Weitere Informationen zu Hyperparametern finden Sie unter Hyperparameteroptimierung.
Gehen Sie folgendermaßen vor:
-
Klicken Sie in der Tabelle Modellmetriken in der Spalte Hyperparameter auf .
Die Hyperparameterwerte werden in einem Popup-Fenster angezeigt.
Anzeigen der Experimentkonfiguration
Im Fenster Experimentkonfiguration wird die Experimentversionskonfiguration für das aktuell ausgewählte Modell angezeigt.
Gehen Sie folgendermaßen vor:
-
Wählen Sie ein Modell in einer Experimentversion aus.
-
Klicken Sie auf oder auf Konfiguration anzeigen, um das Fenster Experimentkonfiguration zu öffnen.