Intelligente Modelloptimierung
Die intelligente Modelloptimierung übernimmt automatisch die Verfeinerung der Modelle, die Sie in einem Experiment trainieren. Mit der intelligenten Modelloptimierung wird der Prozess der Iteration der Featureauswahl und Anwendung von erweiterten Umwandlungen für Sie automatisiert. Wenn Sie einen gut vorbereiteten Trainingsdatensatz nutzen, der alle relevanten Features umfasst, können Sie davon ausgehen, dass intelligente Modelloptimierung einsatzbereite Modelle innerhalb einer einzigen Version trainieren kann.
Worum geht es bei der intelligenten Modelloptimierung?
Die intelligente Modelloptimierung automatisiert viele Aspekte des Modellverfeinerungsprozesses. Mit der intelligenten Modelloptimierung können Sie schnell hochwertige Modelle trainieren, ohne die Featureauswahl manuell zu verfeinern oder Ihre Eingabedaten anzupassen.
Verwenden der intelligenten Modelloptimierung
Die intelligente Modelloptimierung ist standardmäßig in neuen ML-Experimente aktiviert. Sie können sie für jede Version des Experiments, das Sie ausführen, aktivieren bzw. deaktivieren.
Nachdem Sie eine Experimentversion mit aktivierter intelligenter Optimierung ausgeführt haben, können die Ergebnisse der Optimierung in der Modelltrainingsübersicht eingesehen werden. Diese Übersicht ist auf Registerkarte Modelle unter Modelleinblicke zu finden. Bewegen Sie Ihren Mauszeiger über unterstrichene Begriffe, um in einer Quickinfo eine detaillierte Beschreibung zu erhalten.
Die Modelltrainingsübersicht ist für jedes Modell, das in einer Experimentversion trainiert wird, anders.
So funktioniert die intelligente Modelloptimierung
Mit intelligenter Modelloptimierung:
Werden mehr Modell trainiert als mit manueller Optimierung. Die Featureauswahl wird auf Modellebene gehandhabt. Dies bedeutet, dass jedes Modell in einer Version anders als bei der manuellen Optimierung eine andere Featureauswahl haben kann.
Zusätzlich zu der automatischen Vorverarbeitung, die standardmäßig auf alle Modelle angewendet wird, werden die Trainingsdaten mit mehreren erweiterten Umwandlungen verarbeitet. Diese Umwandlungen tragen dazu bei, dass Ihre Daten in einem optimalen Format für ML-Algorithmen vorliegen.
Zur Qualitätssicherung wird ein Basismodell, also ein Modell, das mit dem gesamten für die Version konfigurierten Featuresatz trainiert wurde, weiterhin trainiert. Damit kann überprüft werden, ob die intelligente Optimierung tatsächlich Modellbewertung verbessert.
Bei größeren Trainingsdatensätzen werden Modelle auf eine Vielzahl von Stichprobenanteilen trainiert.Dies beschleunigt den Trainingsprozess. Weitere Informationen finden Sie unter Stichprobennahme von Trainingsdaten.
Stichprobennahme von Trainingsdaten
Wenn Sie Modelle mit einer großen Datenmenge trainieren, verwendet AutoML die Stichprobennahme zum Trainieren von Modellen auf eine Vielzahl von Teilsätzen (Stichprobenanteile) des Original-Datensatzes. Die Stichprobennahme wird zur Beschleunig des Trainingsprozesses verwendet. Zu Beginn des Trainings werden Modell auf einen kleinen Stichprobenanteil trainiert. Im Verlauf des Trainings werden Modelle nach und nach auf größere Datenmengen trainiert. Schließlich werden Modelle mit dem gesamten Datensatz (ein Stichprobenanteil von 100 %) trainiert.
Während der Analyse der Modelltrainingsdaten sind Modelle, die mit weniger als 100 % des Trainingsdatensatzes trainiert wurden, aus einigen Ansichten ausgeblendet.
Während der intelligenten Modelloptimierung angewendete Verarbeitung
In der Modelltrainingsübersicht wird gezeigt, wie die Trainingsdaten durch intelligente Modelloptimierung verarbeitet wurden. In den folgenden Abschnitte finden Sie weitere Details zu den einzelnen im Protokoll enthaltenen Elementen.
Featureauswahl
Intelligente Modelloptimierung unterstützt Sie bei der Verfeinerung Ihrer Modelle, indem Features gelöscht werden, die die Prognoseleistung reduzieren können. Während der intelligenten Modelloptimierung wird ein Feature möglicherweise aus einem der folgenden Gründe entfernt:
Zielleck: Es wird vermutet, dass das Feature von Ziellecks beeinträchtigt wird. Von Ziellecks betroffene Features enthalten Informationen zur Zielspalte, die Sie versuchen vorherzusagen. Beispielsweise wird das Feature direkt aus dem Ziel abgeleitet oder es enthält Informationen, zum Zeitpunkt der Vorhersage noch nicht bekannt waren. Features, die Ziellecks verursachen, können Ihnen ein falsches Gefühl der Gewissheit über die Modellleistung vermitteln. In realen Vorhersagen performt das Modell dadurch sehr schlecht.
Geringe Permutation Importance: Das Feature hat, wenn überhaupt, wenig Einfluss auf die Modellvorhersagen. Durch das Entfernen dieser Features wird die Modellleistung durch Verringerung von statistischem Rauschen verbessert.
Hochgradig korreliert: Das Feature steht in enger Beziehung zu einer oder mehreren anderen Features im Experiment. Features, die zu hochgradig korreliert sind, sind für die Nutzung in Trainingsmodellen nicht geeignet.
Auf der Registerkarte Daten im Experiment können Sie Einblicke zu entfernten Features für jedes Modell erhalten. Die Einblicke beziehen sich auch auf Features, die außerhalb des intelligenten Modelloptimierungsprozesses entfernt wurden. Weitere Informationen zu den einzelnen Einblicken finden Sie unter Interpretation von Datensatzeinblicken.
Featureumwandlungen
Bei der intelligenten Modelloptimierung wird eine Reihe von technischen Umwandlungen auf Featureebene angewendet. Diese Umwandlungen verarbeiten Ihre Trainingsdaten so, dass sie effektiver genutzt werden können, um ein zuverlässiges Modell für maschinelles Lernen zu erstellen. Featureumwandlungen werden bei Bedarf automatisch vorgenommen. In der Modelltrainingsübersicht werden Sie benachrichtigt, wenn Featureumwandlungen angewendet werden, und erfahren, welche Features betroffen sind.
Power-Transformation
Featuredaten enthalten häufig von Natur aus Verteilungen mit einem gewissen Grad an Asymmetrie und Abweichungen von einer Normalverteilung. Bevor ein Modell trainiert wird, kann es hilfreich sein, die Daten zu verarbeiten, um die Werteverteilungen zu normalisieren, wenn sie zu stark verzerrt erscheinen. Diese Verarbeitung hilft dabei, Verzerrungen zu reduzieren und Ausreißer zu identifizieren.
Bei der intelligenten Modelloptimierung werden numerische Features, die einen bestimmten Schwellenwert für die Verzerrung überschreiten, mithilfe von Power-Transformationen in eine normalere (oder normalähnliche) Verteilung umgewandelt. Konkret wird die Yeo-Johnson-Power-Transformation verwendet.
Klasseneinteilung von numerischen Features
Bestimmte numerische Features können Muster und Verteilungen enthalten, die von ML-Algorithmen nicht ohne weiteres verarbeitet werden können. Bei der intelligenten Modelloptimierung wird dies zum Teil dadurch behoben, dass die Daten bestimmter numerischer Features in Abhängigkeit von ihren Wertebereichen in verschiedenen Klassen organisiert werden. Die Klasseneinteilung wird vorgenommen, damit die Features in kategoriale Features umgewandelt werden können.
Nach Abschluss der Klasseneinteilung werden die neuen kategorialen Features mit One-hot Encoding codiert und im Training verwendet. Weitere Informationen über One-hot Encoding finden Sie unter Kategoriale Codierung.
Deaktivieren der intelligenten Optimierung
Bei deaktivierter intelligenter Optimierung optimieren Sie das Training manuell. Eine manuelle Optimierung kann hilfreich sein, wenn Sie den Trainingsprozess stärker beeinflussen müssen. Im Einzelnen sollten Sie eine Version mit intelligenter Modelloptimierung ausführen und dann die Einstellung deaktivieren, wenn Sie geringe manuelle Anpassungen vornehmen müssen.
Gehen Sie folgendermaßen vor:
Klicken Sie in einem Experiment auf Konfiguration anzeigen.
Der Fensterbereich der Experimentkonfiguration wird geöffnet.
Falls Sie bereits mindestens eine Version des Experiments ausgeführt haben, klicken Sie auf Neue Version.
Erweitern Sie im Fensterbereich die Option Modelloptimierung.
Wechseln Sie von Intelligent zu Manuell.
Überlegungen
Beachten Sie bei der Arbeit mit intelligenter Modelloptimierung Folgendes:
Die Verwendung der intelligenten Modelloptimierung garantiert nicht, dass Ihr Training qualitativ hochwertige Modelle hervorbringt. Die Phasen der Datensatzvorbereitung und Experimentkonfiguration sind ebenso wichtig für Hervorbringen zuverlässiger Modelle. Wenn Sie keinen gut vorbereiten Datensatz haben oder bei Ihrer Konfiguration wichtige Features fehlen, kann nicht garantiert werden, dass Ihre Modelle gut in Produktionsanwendungsfällen performen. Weitere Informationen zu diesen Phasen finden Sie unter:
Wenn die intelligente Modelloptimierung für eine Version aktiviert ist, hat jedes Modell aus dieser Version einen separaten Satz einbezogener Features. Auf der anderen Seite haben alle Modelle aus einer Version, die mit manueller Optimierung trainiert wurde, denselben Satz einbezogener Features.
Die intelligente Modelloptimierung verwendet nur die Features und Algorithmen, die Sie in die Konfiguration für die Version einbezogen haben.
Hyperparameteroptimierung
Die Hyperparameteroptimierung ist bei aktivierter intelligenter Modelloptimierung nicht verfügbar. Um die Hyperparameteroptimierung zu aktivieren, müssen Sie die Modelloptimierung auf Manuell setzen.
Weitere Informationen finden Sie unter Hyperparameteroptimierung.
Beispiel
Ein Beispiel zur Demonstration der Vorteile der intelligenten Modelloptimierung finden Sie unter Beispiel – Trainingsmodelle mit automatisiertem maschinellen Lernen.