Zu Hauptinhalt springen Zu ergänzendem Inhalt springen

Verzerrungserkennung in Modellen für maschinelles Lernen

Sie können Verzerrung in ML-Modellen identifizieren, die Sie in ML-Experimenten trainieren. Außerdem können Sie optional Empfehlungen von einem großen Sprachmodell (LLM) für Features erhalten, die anfällig für Verzerrungen sein könnten. Beheben Sie erkannte Verzerrungen, indem Sie verzerrte Features entfernen, fehlerhafte Datenerfassung korrigieren oder die Struktur Ihres Trainingsdatensatzes ändern.

Warnhinweis

Qlik garantiert nicht die Genauigkeit, Vollständigkeit oder Zuverlässigkeit von Ergebnissen der Verzerrungserkennung und gewährleistet nicht die Einhaltung lokaler, staatlicher, bundesstaatlicher oder internationaler Gesetze, Vorschriften oder Industriestandards. Der Benutzer trägt das gesamte Risiko und die Verantwortung für alle Maßnahmen, die auf der Grundlage der Ausgabe des Tools ergriffen werden, welche nicht als Ersatz für professionelle Rechtsberatung oder eine unabhängige menschliche Prüfung verwendet werden darf.

Warnhinweis

Die Verzerrungserkennung verfügt über eine optionale Komponente, die generative künstliche Intelligenz („GenAI“) verwendet, um Features zu empfehlen, die anfällig für Verzerrungen sein könnten. Es liegt in der Verantwortung des Benutzers, jegliche GenAI-Empfehlungen durchzugehen und zu bewerten, ob die Verwendung für einen besonderen Anwendungsfall geeignet ist und die gültigen Gesetze eingehalten werden.

Verstehen von Verzerrung

Beim maschinellen Lernen wird als Verzerrung ein unerwünschtes Phänomen bezeichnet, bei dem Modelle bestimmte Gruppen gegenüber anderen bevorzugen oder bevorzugen könnten. Verzerrung beeinträchtigt die Fairness negativ und hat ethische Auswirkungen auf Vorhersagen und die von diesen beeinflussten Entscheidungen. Verzerrung kann in Trainingsdaten, in den von trainierten Modellen vorhergesagten Ergebnissen oder in beidem auftreten.

Beispiele für Verzerrung – und deren Folgen für die Entscheidungsfindung – sind:

  • Trainieren von Modellen mit Daten, die bestimmte Einkommensniveaus oder Gesundheitszustände unverhältnismäßig stark repräsentieren, was zu unfairen Entscheidungen bei Versicherungsansprüchen führt.

  • Trainieren von Modellen mit verzerrten Daten in Bezug auf Rasse und Geschlecht von Kandidaten, was sich auf Einstellungsentscheidungen auswirkt.

  • Trainieren von Modellen, die Postleitzahlen mit der Kreditwürdigkeit in Verbindung bringen.

Datenverzerrung

Datenverzerrung tritt auf, wenn die zum Trainieren eines Modells verwendeten Daten auf eine Weise verzerrt sind, dass bestimmte Gruppen gegenüber anderen bevorzugt werden. Datenverzerrung wird durch ungleiche Repräsentation von Gruppen in den Trainingsdaten verursacht.

Zum Beispiel könnte ein Datensatz zur Vorhersage von Einstellungsergebnissen Daten enthalten, die ein Geschlecht als erfolgreicher darstellen als andere.

Datenverzerrung kann auf verschiedene Weisen in Trainingsdaten eingeführt werden, darunter:

  • Ungeeignete Datenerfassung, bei der bestimmte Gruppen unterrepräsentiert oder überrepräsentiert sind.

  • Daten, die historische Muster genau widerspiegeln, aber die zugrunde liegende Verzerrung in diesen Trends und Praktiken offenlegen.

Die Daten in der unten angezeigten Visualisierung weisen Datenverzerrungen auf.

Ein Beispiel für Datenverzerrungen, visualisiert durch ein Balkendiagramm. In den Quelldaten sind bestimmte Familienstände im Vergleich zu anderen in Bezug auf Einkommensniveaus überrepräsentiert.

Verzerrte Daten, die Datenverzerrungen einführen würden, wenn sie in einem ML-Modell verwendet würden.

Modellverzerrung

Modellverzerrung oder algorithmische Verzerrung tritt auf, wenn die Vorhersagen eines ML-Modells bestimmte Gruppen gegenüber anderen bevorzugen. Bei Modellverzerrung stellen Modelle Assoziationen zwischen bestimmten Gruppen und Ergebnissen her, was sich negativ auf andere Gruppen auswirkt. Modellverzerrung kann durch nicht angemessen erfasste oder verzerrte Daten sowie durch Verhaltensweisen verursacht werden, die spezifisch für den verwendeten Trainingsalgorithmus sind.

Zum Beispiel könnte ein Modell unverhältnismäßig negative Einstellungsquoten für bestimmte Altersgruppen vorhersagen, die auf vom Modell getroffenen unfairen Assoziationen basieren.

Visualisierung auf der Registerkarte Analysieren in einem ML-Experiment, die die Modellverzerrung hervorhebt. Die Visualisierung zeigt, dass ein Modell für bestimmte Familienstände höhere Einkommensprognosen erstellt als für andere.

Registerkarte „Analysieren“ im ML-Experiment, die die Modellverzerrung zeigt.

Datenverzerrungsmetriken

In Qlik Predict wird die Datenverzerrung durch die Analyse folgender Metriken gemessen:

  • Repräsentationsrate: Vergleicht die Verteilung der Daten, die zu jeder Gruppe im Feature gehören, im Vergleich zu allen Daten im Feature. Die berechnete Metrik ist das Paritätsverhältnis der Repräsentationsrate.

  • Paritätsverhältnis der bedingten Verteilung: Vergleicht die Ausgewogenheit zwischen Daten für jede Gruppe im Feature bezüglich der Werte der Zielspalte. Die berechnete Metrik ist das Paritätsverhältnis der bedingten Verteilung.

Weitere Informationen zu den akzeptablen Werten für diese Metriken finden Sie unter Akzeptable Werte für Verzerrungsmetriken.

Modellverzerrungsmetriken

In Qlik Predict lassen sich Modellverzerrungsmetriken am besten im Kontext des Modelltyps für das Experiment verstehen. Im Allgemeinen gibt es die folgenden Kategorien für Verzerrungsmetriken:

  • Metriken für Klassifizierungsmodelle

  • Metriken für Regressions- und Zeitreihenmodelle

Weitere Informationen zu den akzeptablen Werten für diese Metriken finden Sie unter Akzeptable Werte für Verzerrungsmetriken.

Klassifizierungsmodelle

In binären und Mehrklassen-Klassifizierungsmodellen wird die Verzerrung durch die Analyse der vorhergesagten Zielwerte (Ergebnisse) gemessen. Insbesondere werden Unterschiede in den Raten positiver und negativer Ergebnisse für Gruppen verglichen („positiv“ und „negativ“ beziehen sich hier auf günstige bzw. ungünstige Ergebnisse – zum Beispiel ein Wert von Ja oder Nein für eine Zielspalte Eingestellt). Diese Modelle haben die folgenden Verzerrungsmetriken:

  • Ungleichmäßige Auswirkung

  • Statistischer Paritätsunterschied

  • Unterschied bei Chancengleichheit

Ungleichmäßige Auswirkung

Das Verhältnis der ungleichmäßigen Auswirkung bewertet, ob Gruppen in einem sensiblen Feature in den vorhergesagten Ergebnissen des Modells bevorzugt oder benachteiligt werden. Zu seiner Messung wird berechnet, wie oft jede Gruppe als vorhergesagter Wert ausgewählt wird, und dies wird mit der Auswahlrate für die am meisten bevorzugte Gruppe im Feature verglichen.

Statistischer Paritätsunterschied

Ähnlich wie bei der ungleichmäßigen Auswirkung bewertet der statistische Paritätsunterschied Modellvorhersagen, um festzustellen, ob sie einzelne Gruppen bevorzugen oder benachteiligen. Die Metrik wird berechnet, indem die Raten positiver Ergebnisse zwischen der größten und der kleinsten Gruppe verglichen werden.

Unterschied bei Chancengleichheit

Der Unterschied bei Chancengleichheit ähnelt den beiden anderen Metriken für die Klassifizierungsmodellverzerrung. Der Unterschied bei Chancengleichheit vergleicht die höchsten und niedrigsten Wahr-Positiv-Raten über Gruppen hinweg in einem Feature.

Regressions- und Zeitreihenmodelle

In Regressions- und Zeitreihenmodellen wird die Verzerrung gemessen, indem verglichen wird, wie oft Modelle Fehler in ihren Vorhersagen machen, wobei Paritätsverhältnisse verwendet werden, um die Fairness der vorhergesagten Ergebnisse zu bestimmen.

Die folgenden Verzerrungsmetriken werden berechnet, wobei Fehlermetriken genutzt werden, die üblicherweise zur Bewertung der Modellgenauigkeit verwendet werden:

  • MAE-Paritätsverhältnis

    MAE

  • MSE-Paritätsverhältnis

    MSE

  • RMSE-Paritätsverhältnis

    RMSE

  • R2-Lücke

    R2

  • MASE-Paritätsverhältnis

    MASE

  • MAPE-Paritätsverhältnis

    MAPE

  • SMAPE-Paritätsverhältnis

    SMAPE

Akzeptable Werte für Verzerrungsmetriken

Verzerrungsmetriken – akzeptable Bereiche und Werte
Verzerrungsmetrik Verzerrungskategorie Anwendbare Modelltypen Akzeptable Werte
Paritätsverhältnis der Repräsentationsrate Datenverzerrung Alle

Idealer Wert: zwischen 0,8 und 1.

Ein niedrigeres Verhältnis deutet auf eine unverhältnismäßige Repräsentation hin.

Paritätsverhältnis der bedingten Verteilung Datenverzerrung Alle

Idealer Wert: zwischen 0,8 und 1.

Ein niedrigeres Verhältnis deutet auf eine unverhältnismäßige Repräsentation hin.

Statistischer Paritätsunterschied Modellverzerrung Binärklassifizierung, Mehrklassen-Klassifizierung

Idealer Wert: 0.

Ein Wert über 0,2 ist ein starker Hinweis auf Unfairness.

Ungleichmäßige Auswirkung Modellverzerrung Binärklassifizierung, Mehrklassen-Klassifizierung

Idealer Wert: 1.

Ein Wert unter 0,8 signalisiert Unfairness.

Unterschied bei Chancengleichheit Modellverzerrung Binärklassifizierung, Mehrklassen-Klassifizierung

Idealer Wert: 0.

Ein Wert unter 0,1 signalisiert Unfairness.

MAE-Paritätsverhältnis Modellverzerrung Regression

Idealer Wert: zwischen 0,8 und 1.

Ein Wert über 1,25 signalisiert Unfairness.

MSE-Paritätsverhältnis Modellverzerrung Regression

Idealer Wert: zwischen 0,8 und 1.

Ein Wert über 1,25 signalisiert Unfairness.

RMSE-Paritätsverhältnis Modellverzerrung Regression

Idealer Wert: zwischen 0,8 und 1.

Ein Wert über 1,25 signalisiert Unfairness.

R2-Lücke Modellverzerrung Regression

Idealer Wert: 0.

Ein Wert über 0,2 signalisiert Unfairness.

MASE-Paritätsverhältnis Modellverzerrung Zeitreihen Ein Wert über 1,25 signalisiert Unfairness.
MAPE-Paritätsverhältnis Modellverzerrung Zeitreihen Ein Wert über 1,25 signalisiert Unfairness.
SMAPE-Paritätsverhältnis Modellverzerrung Zeitreihen Ein Wert über 1,25 signalisiert Unfairness.

Konfigurieren der Verzerrungserkennung

Die Verzerrungserkennung wird pro Trainings-Feature in der Experimentversion konfiguriert.

  1. Erweitern Sie in einem ML-Experiment Verzerrung im Trainingskonfigurationsfenster.

  2. Bevor Sie Funktionen zur Verzerrungserkennung auswählen, klicken Sie optional auf Empfehlungen abrufen, um generative KI zu verwenden, die Features vorschlägt, die verzerrte Daten enthalten könnten. Weitere Informationen finden Sie unter Verwenden von generativer KI zur Empfehlung von Features für die Verzerrungserkennung.

  3. Wählen Sie die Features aus, für die Sie die Verzerrungserkennung ausführen möchten, bzw. heben Sie die Auswahl auf.

Alternativ aktivieren Sie die Verzerrungserkennung für die gewünschten Features in Zeilen Schemaansicht.

Verwenden von generativer KI zur Empfehlung von Features für die Verzerrungserkennung

Sie können die vordefinierte Integration mit einem großen Sprachmodell (LLM) verwenden, um potenziell sensible Features zu empfehlen, bevor Sie das Experiment ausführen.

  • Wenn Sie auf Empfehlungen abrufen klicken, werden Feature-Namen und Datenbeispiele vom LLM gescannt, um zu prüfen, welche Ihrer Features für die Verzerrungserkennung empfohlen werden.

  • Empfehlungen werden als Reaktion auf Inferenzanfragen generiert, die außerhalb Ihrer Qlik Cloud Mandantenregion verarbeitet werden können.

    InformationshinweisSowohl im Ruhezustand als auch während der Übertragung sind Ihre Daten immer verschlüsselt.
  • Nachdem Sie Empfehlungen erhalten haben, können Sie die Begründung für jede Empfehlung überprüfen. Zum Beispiel können Sie sehen, ob ein Feature aufgrund potenzieller geografischer Verzerrungen empfohlen wird.

  • Empfehlungen des LLM sind in englischer Sprache.

Klicken Sie auf Empfehlungen abrufen, um KI für vorgeschlagene Features zu verwenden, für die eine Verzerrungserkennung ausgeführt werden soll.

Überprüfen von KI-Empfehlungen für Features, für die eine Verzerrungserkennung vorgeschlagen wird.
  • KI-Funktionen – d. h. regionsübergreifende Inferenz – müssen von einem Mandantenadministrator aktiviert werden, damit diese Funktionalität verfügbar ist. Dies geschieht über das Aktivitätscenter Administration.

    Weitere Informationen finden Sie unter Aktivieren von regionsübergreifender Inferenz.

  • Zusätzlich zu den Berechtigungen zum Konfigurieren von Experimenten muss für Benutzer die Berechtigung ML-Experimente verwalten auf Zulässig festgelegt sein, wenn die Nutzung von GenAI zugelassen wird. Weitere Informationen finden Sie unter Verwendung von KI-Tools in ML-Experimenten.

Schnellanalyse der Verzerrungsergebnisse

Nach Abschluss des Trainings erhalten Sie eine schnelle Übersicht über die Ergebnisse der Verzerrungserkennung auf der Registerkarte Modelle.

Warnhinweis

Qlik garantiert nicht die Genauigkeit, Vollständigkeit oder Zuverlässigkeit von Ergebnissen der Verzerrungserkennung und gewährleistet nicht die Einhaltung lokaler, staatlicher, bundesstaatlicher oder internationaler Gesetze, Vorschriften oder Industriestandards. Der Benutzer trägt das gesamte Risiko und die Verantwortung für alle Maßnahmen, die auf der Grundlage der Ausgabe des Tools ergriffen werden, welche nicht als Ersatz für professionelle Rechtsberatung oder eine unabhängige menschliche Prüfung verwendet werden darf.

Scrollen Sie durch die Schnellanalyse-Elemente nach unten zu Verzerrungserkennung. Erweitern Sie Abschnitte mithilfe der Dropdown-Pfeil nach unten-Symbole. Sie können Features mit möglichen Daten- und Modellverzerrungen analysieren.

Analysieren von Datenverzerrungen mithilfe des Abschnitts Verzerrungserkennung auf der Registerkarte Modelle.

Analysieren von Datenverzerrungen mithilfe des Abschnitts „Verzerrungserkennung“ auf der Registerkarte „Modelle“.

Notizen

  • Bevorzugte Gruppen sind die Zielwerte oder -bereiche, die in den Daten oder den prognostizierten Ergebnissen des Ziels basierend auf den Verzerrungsmetriken überrepräsentiert sind. Geschädigte Gruppen sind die Zielwerte oder -bereiche, die in den Daten oder den prognostizierten Ergebnissen des Ziels basierend auf den Verzerrungsmetriken unterrepräsentiert sind.

    Informationen zur Verwendung der Verzerrungsmetriken finden Sie unter Akzeptable Werte für Verzerrungsmetriken.

    Die Zahlen in Klammern beschreiben die Kriterien, die zur Berechnung der Metrik verwendet wurden. Wenn die Metrik beispielsweise der Unterschied bei der Chancengleichheit ist, zeigt weiblich (10 %) und männlich (80 %) Wahr-Positiv-Raten von 80 % für Männer und 10 % für Frauen an.

  • Zielergebnis ist der Wert der Zielspalte, der vom Modell vorhergesagt wird.

  • Aufgrund des begrenzten Platzes werden nicht alle Verzerrungsmetriken und -werte auf der Registerkarte Modelle angezeigt. Beispiel:

    • Je nach Metrik- und Modelltypen können einige Metriken und Gruppen nur Mindest- oder Höchstwerte enthalten.

    • Wenn mehrere Metriken den Verzerrungsschwellenwert für ein Feature überschreiten, wird die Metrik angezeigt, die den höchsten Grad an Unfairness aufweist.

    • Für verzerrte Features in Mehrklassen-Klassifizierungsmodellen wird nur die Metrik angezeigt, die den höchsten Grad an Unfairness aufweist.

  • Detailliertere Informationen finden Sie auf der Registerkarte Analysieren und im Modelltrainingsbericht. Weitere Informationen finden Sie unter Detaillierte Analyse der Verzerrungsergebnisse.

  • Weitere Informationen zur Terminologie in diesem Abschnitt finden Sie unter Auf dieser Seite verwendete Terminologie.

Detaillierte Analyse der Verzerrungsergebnisse

Auf der Registerkarte Analysieren können Sie die Verzerrungsergebnisse eingehender prüfen.

Warnhinweis

Qlik garantiert nicht die Genauigkeit, Vollständigkeit oder Zuverlässigkeit von Ergebnissen der Verzerrungserkennung und gewährleistet nicht die Einhaltung lokaler, staatlicher, bundesstaatlicher oder internationaler Gesetze, Vorschriften oder Industriestandards. Der Benutzer trägt das gesamte Risiko und die Verantwortung für alle Maßnahmen, die auf der Grundlage der Ausgabe des Tools ergriffen werden, welche nicht als Ersatz für professionelle Rechtsberatung oder eine unabhängige menschliche Prüfung verwendet werden darf.

  1. Wählen Sie in einem ML-Experiment ein Modell aus und wechseln Sie zur Registerkarte Analysieren.

  2. Öffnen Sie das Arbeitsblatt Verzerrung.

  3. Wählen Sie je nach gewünschter Analyse zwischen Datenverzerrung und Modellverzerrung aus.

  4. Wählen Sie in der Tabelle Features mit potenzieller Verzerrung ein einzelnes Feature aus.

Diagramme und Metriken, die eine mögliche Verzerrung anzeigen, werden mit rotem Hintergrund dargestellt. Sie können Features auswählen, indem Sie in den verschiedenen Visualisierungen klicken und ziehen.

Metriken in der Tabelle sind statisch für Verzerrungsmetriken, die Standard-Features entsprechen. Für zukünftige Features ändern sich die Verzerrungsmetriken dynamisch, abhängig von der Auswahl der Zeitreihengruppe.

Registerkarte Analyse, die eine Analyse der Modellverzerrung für das ausgewählte Feature zeigt. Mögliche Verzerrungen werden durch rote Hintergründe für Diagramme und Metriken angezeigt.

Detaillierte Analyse der Modellverzerrung mithilfe des Arbeitsblatts „Verzerrung“ auf der Registerkarte „Analysieren“.

Weitere Informationen zum Navigieren in detaillierten Modellanalysen finden Sie unter Durchführen von detaillierten Modellanalysen.

Verzerrungsergebnisse in Trainingsberichten

Verzerrungsmetriken werden auch in ML-Trainingsberichten dargestellt. Sie sind in einem eigenen Abschnitt Verzerrung im Bericht enthalten.

Weitere Informationen zu Trainingsberichten finden Sie unter Herunterladen von ML-Trainingsberichten.

Beheben von Verzerrungen

Nach der Analyse der Ergebnisse der Verzerrungserkennung für Ihre Modelle haben Sie folgende Möglichkeiten:

Auf dieser Seite verwendete Terminologie

Auf dieser Seite und in Qlik Predict hat „Gruppen“ je nach Kontext unterschiedliche Bedeutungen:

  • „Gruppen“ bezieht sich auf die Werte oder Bereiche in Features, die auf Verzerrungen analysiert werden. Beispielsweise könnte ein Feature „Familienstand“ vier mögliche Gruppen in den Trainingsdaten haben: Verheiratet, Geschieden, Getrennt lebend oder Verwitwet.

  • In Zeitreihenexperimenten bezieht sich „Gruppen“ auf eine Funktionalität, die es ermöglicht, Zielergebnisse für bestimmte Werte kompatibler Features zu verfolgen. Auf dieser Seite werden diese Gruppen als „Zeitreihengruppen“ bezeichnet. Weitere Informationen zu diesen Gruppen finden Sie unter Gruppen.

Beschränkungen

  • Es gibt einige Einschränkungen bei den Größen von Trainingsdatensätzen, wenn die Verzerrungserkennung aktiviert ist. Weitere Informationen finden Sie unter Einschränkungen für Trainingsdatensätze und Profilerstellung.

  • Für folgende Features kann keine Verzerrungserkennung aktiviert werden:

    • Das Ziel-Feature.

    • Freitext-Features (auch wenn der Feature-Typ in kategorial geändert wird).

    • Datums-Features, die als Datumsindex in Zeitreihenexperimenten verwendet werden.

    • Automatisch erstellte Datums-Features. Sie können eine Verzerrungserkennung für diese Features ausführen, aber aktivieren Sie sie nicht unabhängig. Aktivieren Sie stattdessen das übergeordnete Datums-Feature für die Verzerrungserkennung und stellen Sie sicher, dass die automatisch generierten Datums-Features für das Training enthalten sind.

Hat diese Seite Ihnen geholfen?

Wenn Sie ein Problem mit dieser Seite oder ihrem Inhalt feststellen, sei es ein Tippfehler, ein ausgelassener Schritt oder ein technischer Fehler, informieren Sie uns bitte!