Zu Hauptinhalt springen Zu ergänzendem Inhalt springen

Bereitstellungseinstellungen

Sie können Einstellungen für die Bereitstellungsdatenaufgabe konfigurieren.

  • Öffnen Sie die Bereitstellungsaufgabe und klicken Sie in der Symbolleiste auf Einstellungen.

Das Dialogfeld Einstellungen: <Aufgaben-Name> wird geöffnet. Die verfügbaren Einstellungen werden unten beschrieben.

Allgemein

  • Datenbank

    Datenbank, die im Ziel verwendet werden soll.

    InformationshinweisDiese Option ist nicht verfügbar, wenn Daten an Qlik Cloud (über Amazon S3) bereitgestellt werden.
  • Datenaufgabenschema

    Sie können den Namen des Bereitstellungs-Datenaufgabenschemas ändern. Der Standardname lautet Bereitstellung.

    InformationshinweisDiese Option ist nicht verfügbar, wenn Daten an Qlik Cloud (über Amazon S3) bereitgestellt werden.
  • Präfix für alle Tabellen und Ansichten

    Sie können ein Präfix für alle Tabellen und Ansichten festlegen, die mit dieser Aufgabe erstellt wurden.

    InformationshinweisDiese Option ist nicht verfügbar, wenn Daten an Qlik Cloud (über Amazon S3) bereitgestellt werden.
    InformationshinweisSie müssen ein eindeutiges Präfix verwenden, wenn Sie ein Datenbankschema in mehreren Datenaufgaben nutzen möchten.
  • Aktualisierungsmethode

    Die Bereitstellungsaufgabe startet immer mit einem vollständigen Ladevorgang. Nach Abschluss des vollständigen Ladevorgangs können Sie die bereitgestellten Daten aktualisiert halten, indem Sie eine der folgenden Methoden verwenden:

    InformationshinweisDie Aktualisierungsmethode kann nicht mehr geändert werden, nachdem der Vorbereitungsvorgang für die Bereitstellungsdatenaufgabe abgeschlossen wurde.
    • Change Data Capture (CDC)

      Die bereitgestellten Daten werden mit der CDC-Technologie (Change Data Capture) aktualisiert gehalten. CDC wird möglicherweise nicht von allen Datenquellen unterstützt. CDC erfasst keine DDL-Operation wie beispielsweise das Umbenennen von Spalten oder Änderungen bei Metadaten.

      Wenn Ihre Daten auch Ansichten oder Tabellen enthalten, die CDC nicht unterstützen, werden zwei Daten-Pipelines erstellt. Eine Pipeline enthält alle Tabellen, die CDC unterstützen, und die andere Pipeline alle anderen Tabellen und Ansichten, die Neu laden und vergleichen als Aktualisierungsmethode verwenden.

    • Neu laden und vergleichen

      Alle bereitgestellten Daten werden aus der Quelle neu geladen. Das ist nützlich, wenn Ihre Quelle CDC nicht unterstützt, aber mit jeder unterstützten Datenquelle verwendet werden kann.

      Sie können die Ladevorgänge in regelmäßigen Abständen planen.

  • In Bereitstellungsbereich zu verwendender Ordner

    Für Datenplattformen, die einen Bereitstellungsbereich erfordern (z. B. Databricks und Azure Synapse Analytics) können Sie beim Bereitstellen der Daten den zu verwendenden Ordner auswählen.

    • Standardordner

      Dadurch wird ein Ordner mit dem Standardnamen <projektname>/<datenaufgabenname> erstellt.

    • Stammordner

      Speichern Sie Daten im Stammordner des Speichers.

      InformationshinweisDiese Option ist nur verfügbar, wenn Daten für Qlik Cloud (über Amazon S3) bereitgestellt werden.
    • Ordner

      Geben Sie einen Ordnernamen an, der verwendet werden soll.

  • Verarbeitungsintervall ändern

    Sie können das Intervall zwischen den Verarbeitungen von Änderungen an der Quelle festlegen.

    InformationshinweisDiese Option ist nur verfügbar, wenn Daten für Qlik Cloud (über Amazon S3) bereitgestellt werden.
  • Proxy-Server, wenn Datenverschiebungs-Gateway verwendet wird

    Sie können wählen, einen Proxy-Server zu verwenden, wenn das Data Movement Gateway eine Verbindung zum Cloud Data Warehouse und zum Speicherbereich herstellt.

    Weitere Informationen zum Konfigurieren des Data Movement Gateways für die Verwendung eines Proxy-Servers finden Sie unter Festlegen des Qlik Cloud Mandanten und eines Proxy-Servers.

    • Proxy für Verbindung mit Cloud Data Warehouse verwenden

      InformationshinweisVerfügbar, wenn Snowflake, Google BigQuery und Databricks verwendet werden.
    • Proxy für Verbindung mit Speicher verwenden

      InformationshinweisVerfügbar, wenn Azure Synapse Analytics, Amazon Redshift und Databricks verwendet werden.

Daten hochladen

  • Maximale Dateigröße (MB)

    Die maximale Größe, die eine Datei erreichen kann, bevor sie geschlossen wird. Kleinere Dateien könnten (abhängig vom Netzwerk) schneller hochgeladen werden und die Leistung verbessern, wenn diese Möglichkeit zusammen mit der parallelen Ausführungsoption verwendet wird. Generell wird aber davon abgeraten, die Datenbank mit kleinen Dateien zu überfüllen.

    InformationshinweisDiese Einstellung ist für alle Datenplattformen außer Qlik Cloud relevant.
  • Komprimierung verwenden

    Wenn die Option ausgewählt wird, werden die CSV-Dateien (mit gzip) komprimiert, bevor sie an Google BigQuery hochgeladen werden.

    Informationshinweis
    • Diese Einstellung ist nur für Google BigQuery relevant.
    • Erfordert Data Movement Gateway 2023.5.16 oder höher.

Metadaten

LOB-Spalten

  • LOB-Spalten einbeziehen und Spaltengröße beschränken auf (KB):

    Sie können sich entscheiden, LOB-Spalten in die Aufgabe einzuschließen, und die maximale LOB-Größe festlegen. LOBs, die die maximale Größe überschreiten, werden abgeschnitten.

    InformationshinweisBei Verwendung von Azure Synapse Analytics als Ziel kann die maximale LOB-Größe nicht über 7 MB liegen.

Kontrolltabellen

Wählen Sie die folgenden Kontrolltabellen aus, die in der Zielplattform erstellt werden sollen:

  • Bereitstellungsstatus: Enthält Details über die aktuelle Bereitstellungsaufgabe, u. a. Aufgabenstatus, von der Aufgabe genutzte Arbeitsspeichermenge, Anzahl der noch nicht auf die Datenplattform angewendeten Änderungen und die Position im Quell-Endpunkt, aus dem das Data Movement Gateway derzeit liest.
  • Ausgesetzte Tabellen: Stellt eine Liste der ausgesetzten Tabellen und den Grund für die Aussetzung bereit.
  • Bereitstellungsverlauf: Stellt Informationen über den Aufgabenverlauf bereit, u.a. die Anzahl und das Volumen der während einer Bereitstellungsaufgabe verarbeiteten Datensätze, die Latenz am Ende einer CDC-Aufgabe und mehr.
  • DDL-Verlauf: Enthält einen Verlauf aller unterstützten DDL-Änderungen, die während einer Aufgabe eingetreten sind.

    Informationshinweis

    Die Tabelle „DDL-Verlauf“ wird derzeit nur von den folgenden Datenplattformen unterstützt:

    • Databricks

    • Microsoft Fabric Data Warehouse

Eine detaillierte Beschreibung der einzelnen Kontrolltabellen finden Sie unter Kontrolltabellen

Vollständiges Laden

Leistungsfeinabstimmung

  • Maximale Anzahl parallel zu ladender Tabellen: Geben Sie die maximale Anzahl Tabellen ein, die gleichzeitig in das Ziel geladen werden können. Der Standardwert ist 5.o
  • Zeitüberschreitung für Transaktionseinheitlichkeit (Sekunden): Geben Sie die Anzahl der Sekunden ein, die auf das Schließen offener Transaktionen gewartet werden soll, bevor der vollständige Ladevorgang beginnt. Der Standardwert ist 600 (10 Minuten). Das vollständige Laden beginnt, nachdem der Zeitüberschreitungswert erreicht ist, auch wenn noch offene Transaktionen vorhanden sind.

    InformationshinweisUm Transaktionen zu replizieren, die beim Starten des vollständigen Ladens geöffnet waren, für die aber erst nach Erreichen des Zeitüberschreitungswerts ein Commit durchgeführt wurde, müssen Sie die Zieltabellen neu laden.
  • Commit-Rate beim vollständigen Laden: Die maximale Anzahl der Ereignisse, die gleichzeitig übertragen werden können. Der Standardwert ist 10000.

Nach Abschluss des vollständigen Ladens

Primärschlüssel oder eindeutigen Index erstellen: Wählen Sie diese Option aus, wenn Sie die Erstellung des Primärschlüssels oder des eindeutigen Index in der Datenplattform bis nach dem Abschluss des vollständigen Ladens aufschieben möchten.

Fehlerbearbeitung

Datenfehler

Informationshinweis

Die Bearbeitung von Datenfehlern wird nur für die Aktualisierungsmethode „Change Data Capture (CDC)“ unterstützt.

Für Datenabschneidefehler: Wählen Sie aus, was geschehen soll, wenn ein Abschneiden in einem oder mehreren spezifischen Datensätzen auftritt. Sie können eine der folgenden Optionen aus der Liste auswählen:

  • Ignorieren: Die Aufgabe wird fortgesetzt und der Fehler wird ignoriert.
  • Tabelle aussetzen: Die Aufgabe wird fortgesetzt, aber die Daten aus der Tabelle mit dem Fehlerdatensatz werden in einen Fehlerzustand verschoben, und ihre Daten werden nicht repliziert.
  • Aufgabe anhalten: Die Aufgabe wird angehalten, und ein manueller Eingriff ist erforderlich.

Für andere Datenfehler: Wählen Sie aus, was geschehen soll, wenn ein Fehler in einem oder mehreren spezifischen Datensätzen auftritt. Sie können eine der folgenden Optionen aus der Liste auswählen:

  • Ignorieren: Die Aufgabe wird fortgesetzt und der Fehler wird ignoriert.
  • Tabelle aussetzen: Die Aufgabe wird fortgesetzt, aber die Daten aus der Tabelle mit dem Fehlerdatensatz werden in einen Fehlerzustand verschoben, und ihre Daten werden nicht repliziert.
  • Aufgabe anhalten: Die Aufgabe wird angehalten, und ein manueller Eingriff ist erforderlich.

Fehlerbearbeitung eskalieren, wenn andere Datenfehler (pro Tabelle) die folgende Anzahl erreichen: Aktivieren Sie dieses Kontrollkästchen, um die Fehlerbearbeitung zu eskalieren, wenn die Anzahl der anderen Datenfehler (keine Datenabschneidung) pro Tabelle die angegebene Anzahl erreicht. Gültige Werte sind 1-10.000.

Eskalierungsaktion: Wählen Sie aus, was geschehen soll, wenn die Fehlerbearbeitung eskaliert wird. Beachten Sie, dass die verfügbaren Aktionen von der Aktion abhängen, die aus der oben beschriebenen Dropdown-Liste Für andere Datenfehler ausgewählt wurde.

  • Tabelle aussetzen (Standard): Die Aufgabe wird fortgesetzt, aber die Daten aus der Tabelle mit dem Fehlerdatensatz werden in einen Fehlerzustand verschoben, und die Daten werden nicht landed.

  • Aufgabe anhalten: Die Aufgabe wird angehalten, und ein manueller Eingriff ist erforderlich.

Tabellenfehler

Beim Auftreten eines Tabellenfehlers: Wählen Sie eine der folgenden Optionen aus der Liste aus:

  • Tabelle aussetzen (Standard): Die Aufgabe wird fortgesetzt, aber die Daten aus der Tabelle mit dem Fehlerdatensatz werden in einen Fehlerzustand verschoben, und ihre Daten werden nicht repliziert.
  • Aufgabe anhalten: Die Aufgabe wird angehalten, und ein manueller Eingriff ist erforderlich.

Fehlerbearbeitung eskalieren, wenn Tabellenfehler (pro Tabelle) die folgende Anzahl erreichen: Aktivieren Sie dieses Kontrollkästchen, um die Fehlerbearbeitung zu eskalieren, wenn die Anzahl der Tabellenfehler pro Tabelle die angegebene Anzahl erreicht. Gültige Werte sind 1-10.000.

Eskalierungsaktion: Die Eskalationsrichtlinie für Tabellenfehler ist auf Aufgabe anhalten festgelegt und kann nicht geändert werden.

Umgebungsbezogen

  • Maximale Anzahl Wiederholungsversuche: Wählen Sie diese Option aus und geben Sie dann die maximale Anzahl der Male ein, für die eine Aufgabe wiederholt werden soll, wenn ein wiederherstellbarer umgebungsbezogener Fehler eintritt. Nachdem die angegebene Anzahl Male versucht wurde, die Aufgabe zu wiederholen, wird die Aufgabe angehalten, und ein manueller Eingriff ist erforderlich.

    Um eine Aufgabe nie zu wiederholen, deaktivieren Sie das Kontrollkästchen oder geben Sie „0“ an.

    Um eine Aufgabe eine unendliche Anzahl von Malen zu wiederholen, geben Sie „-1“ an.

    • Intervall zwischen Wiederholungsversuchen (Sekunden): Verwenden Sie den Zähler zur Auswahl oder geben Sie die Anzahl Sekunden an, für die das System zwischen den Wiederholungsversuchen für eine Aufgabe wartet.

      Gültige Werte sind 0-2.000.

  • Wiederholungsintervall für lange Ausfälle erhöhen: Aktivieren Sie dieses Kontrollkästchen, um das Wiederholungsintervall für lange Ausfälle zu erhöhen. Wenn diese Option aktiviert ist, wird das Intervall zwischen den einzelnen Wiederholungsversuchen verdoppelt, bis das Maximale Wiederholungsintervall erreicht ist (und die Wiederholungsversuche werden entsprechend dem angegebenen maximalen Intervall fortgesetzt).
    • Maximales Wiederholungsintervall (Sekunden): Verwenden Sie den Zähler für die Auswahl oder geben Sie die Anzahl der Sekunden ein, die zwischen den Wiederholungsversuchen für eine Aufgabe gewartet werden soll, wenn die Option Wiederholungsintervall für lange Ausfälle erhöhen aktiviert ist. Gültige Werte sind 0-2.000.

Feinabstimmung der Änderungsverarbeitung

InformationshinweisDiese Registerkarte ist nur für die Aktualisierungsmethode Change Data Capture (CDC) verfügbar.

Anpassung der Transaktionsauslagerung

  • Laufende Transaktionen an Festplatte auslagern, wenn:

    Transaktionsdaten werden in der Regel im Arbeitsspeicher aufbewahrt, bis der Commit-Vorgang an die Quelle bzw. an das Ziel abgeschlossen ist. Wenn die Transaktionen jedoch umfangreicher sind als der zugewiesene Arbeitsspeicher, oder wenn der Commit-Vorgang nicht innerhalb des angegebenen Zeitlimits abgeschlossen ist, werden sie auf die Festplatte ausgelagert.

    • Der Gesamtarbeitsspeicher für alle Transaktionen überschreitet (MB): Der maximale Platz, den alle Transaktionen im Arbeitsspeicher belegen können, bevor sie an die Festplatte ausgelagert werden. Der Standardwert ist 1024.
    • Transaktionsdauer überschreitet (Sekunden): Die maximale Zeit, die alle Transaktionen im Arbeitsspeicher bleiben können, bevor sie an die Festplatte ausgelagert werden. Die Dauer wird ab der Zeit berechnet, zu der das Data Movement Gateway mit der Erfassung der Transaktion begann. Der Standardwert ist 60.

Verschiedene Einstellungen

  • Anweisungs-Cache-Größe (Anzahl der Anweisungen): Die maximale Anzahl der vorbereiteten Anweisungen zum Speichern auf dem Server zur späteren Ausführung (wenn Änderungen auf das Ziel angewendet werden). Der Standardwert ist 50. Der Höchstwert ist 200.
  • DELETE und INSERT beim Aktualisieren einer Primärschlüsselspalte: Für diese Option muss die vollständige ergänzende Protokollierung in der Quelldatenbank aktiviert sein.

Stapeloptimierung

Einige der Einstellungen auf dieser Registerkarte

  • Stapeländerungen in Intervallen anwenden:
    • Mehr als: Die Mindestwartezeit zwischen den einzelnen Anwendungen von Stapeländerungen. Der Standardwert ist 1.

      Wenn Sie den Wert für Mehr als erhöhen, reduziert sich die Häufigkeit, mit der Änderungen auf das Ziel angewendet werden, während gleichzeitig die Stapelgröße zunimmt. Dies kann die Leistung verbessern, wenn Änderungen auf Zieldatenbanken angewendet werden, die für die Verarbeitung großer Stapel optimiert sind.

    • Weniger als: Die maximale Wartezeit zwischen den einzelnen Anwendungen von Stapeländerungen (bevor eine Zeitüberschreitung erklärt wird). Dies ist also die maximal akzeptable Latenz. Der Standardwert ist 30. Dieser Wert bestimmt die maximale Wartezeit vor dem Anwenden der Änderungen, nachdem der Wert Größer als erreicht wurde.
  • Anwendung eines Satzes erzwingen, wenn Verarbeitungsspeicher größer ist als (MB): Die maximale Arbeitsspeichermenge, die zur Vorverarbeitung verwendet werden kann. Der Standardwert ist 500 MB.

    Für die maximale Stapelgröße legen Sie diesen Wert auf die höchste Arbeitsspeichermenge fest, die Sie dem Data Movement Gateway zuweisen können. Dies kann die Leistung verbessern, wenn Änderungen auf Zieldatenbanken angewendet werden, die für die Verarbeitung großer Stapel optimiert sind.

  • Stapeländerungen gleichzeitig auf mehrere Tabellen anwenden: Die Auswahl dieser Option sollte die Leistung verbessern, wenn Änderungen aus zahlreichen Quelltabellen angewendet werden.

    • Maximale Anzahl Tabellen: Die maximale Anzahl der Tabellen, auf die Stapeländerungen gleichzeitig angewendet werden. Der Standardwert ist 5.

    InformationshinweisDiese Option wird nicht unterstützt, wenn Sie Google BigQuery als Datenplattform verwenden.
  • Anzahl der pro Änderungsverarbeitungsbefehl angewendeten Änderungen begrenzen auf: Wählen Sie diese Option, um die Anzahl der pro Änderungsverarbeitungsbefehl angewendeten Änderungen zu begrenzen. Der Standardwert ist 10,000.

    InformationshinweisDiese Option wird nur unterstützt, wenn Sie Google BigQuery als Datenplattform verwenden.
  • Mindestanzahl Änderungen pro Transaktion: Die Mindestanzahl der Änderungen, die in jede Transaktion eingeschlossen werden sollen. Der Standardwert ist 1000.

    Informationshinweis

    Die Änderungen werden auf das Ziel angewendet, wenn entweder die Anzahl der Änderungen größer oder gleich dem Wert für Mindestanzahl Änderungen pro Transaktion ist, ODER wenn der unten beschriebene Wert Maximale Zeit für Stapeltransaktionen vor der Anwendung (Sekunden) erreicht ist, je nachdem, welcher Fall zuerst eintritt. Da die Häufigkeit der Änderungsanwendung auf das Ziel von diesen beiden Parametern gesteuert wird, sind Änderungen an den Quelldatensätzen möglicherweise nicht sofort in den Zieldatensätzen ersichtlich.

  • Maximale Zeit für Stapeltransaktionen vor der Anwendung (Sekunden): Die maximale Zeit zum Erfassen von Transaktionen in Stapeln, bevor eine Zeitüberschreitung eintritt. Der Standardwert ist 1.

Zeichenersetzung

Sie können Quellzeichen in der Zieldatenbank ersetzen oder löschen, bzw. Sie können Quellzeichen ersetzen oder löschen, die von einem ausgewählten Zeichensatz nicht unterstützt werden.

Informationshinweis
  • Alle Zeichen müssen als Unicode-Codepunkte angegeben werden.

  • Die Zeichenersetzung wird auch in den Kontrolltabellen durchgeführt.
  • Ungültige Werte werden durch ein rotes Dreieck oben rechts in der Tabellenzelle gekennzeichnet. Wenn Sie den Mauszeiger über das Dreieck halten, wird die Fehlermeldung angezeigt.

  • Alle Umwandlungen auf Tabellenebene bzw. globalen Umwandlungen, die für die Aufgabe definiert sind, werden nach Abschluss der Zeichenersetzung durchgeführt.

  • Ersetzungsaktionen, die in der Tabelle Quellzeichen ersetzen oder löschen definiert sind, werden vor der Ersetzungsaktion in der Tabelle Quellzeichen ersetzen oder löschen, die vom ausgewählten Zeichensatz nicht unterstützt werden durchgeführt.

  • Die Zeichenersetzung unterstützt keine LOB-Datentypen.

Ersetzen oder Löschen von Quellzeichen

Verwenden Sie die Tabelle Quellzeichen ersetzen oder löschen, um Ersetzungen für spezifische Quellzeichen zu definieren. Das kann beispielsweise nützlich sein, wenn die Unicode-Darstellung eines Zeichens in der Quell- und Zielplattform unterschiedlich ist. Zum Beispiel wird unter Linux das Minuszeichen im Shift_JIS-Zeichensatz als U+2212 dargestellt, unter Windows jedoch als U+FF0D.

Ersetzungsaktionen
Zweck Vorgang

Ersetzungsaktionen definieren.

  1. Klicken Sie auf die Schaltfläche Zeichen hinzufügen oberhalb der Tabelle.

  2. Geben Sie ein Quellzeichen und ein Zielzeichen in den Feldern Quellzeichen bzw. Ersatzzeichen ein.

    Um beispielsweise den Buchstaben „a“ durch den Buchstaben „e“ zu ersetzen, geben Sie 0061 und 0065 an.

    Informationshinweis

    Um das angegebene Quellzeichen zu löschen, geben Sie 0 in die Spalte Ersatzzeichen ein.

  3. Wiederholen Sie die Schritte 1-2, um weitere Zeichen zu ersetzen oder zu löschen.

Das angegebene Quell- oder Zielzeichen bearbeiten

Klicken Sie auf am Ende der Zeile und wählen Sie Bearbeiten aus.

Einträge aus der Tabelle löschen

Klicken Sie auf am Ende der Zeile und wählen Sie Löschen aus.

Ersetzen oder Löschen von Quellzeichen, die vom ausgewählten Zeichensatz nicht unterstützt werden

Verwenden Sie die Tabelle Vom Zeichensatz nicht unterstützte Quellzeichen, um ein einzelnes Ersatzzeichen für alle vom ausgewählten Zeichensatz nicht unterstützte Zeichen zu definieren.

Ersetzungsaktionen für nicht unterstützte Zeichen
Zweck Vorgang

Eine Ersetzungsaktion definieren oder bearbeiten.

  1. Wählen Sie einen Zeichensatz aus der Dropdown-Liste Zeichensatz in der Tabelle aus.

    Alle Zeichen, die vom ausgewählten Zeichensatz nicht unterstützt werden, werden im Ziel durch das in Schritt 2 unten angegebene Zeichen ersetzt.

  2. Klicken Sie in der Spalte Ersatzzeichen auf eine beliebige Stelle und geben Sie das Ersatzzeichen ein. Um beispielsweise alle nicht unterstützten Zeichen durch den Buchstaben „a“ zu ersetzen, geben Sie 0061 ein.

    Informationshinweis

    Um alle nicht unterstützten Zeichen zu löschen, geben Sie 0 ein.

Die Ersetzungsaktion deaktivieren.

Wählen Sie den leeren Eintrag aus der Dropdown-Liste Zeichensatz aus.

Weitere Optionen

Diese Optionen werden in der Benutzeroberfläche nicht angezeigt, da sie nur für bestimmte Versionen oder Umgebungen relevant sind. Daher sollten Sie diese Optionen nur festlegen, wenn Sie ausdrücklich vom Qlik-Support oder in der Produktdokumentation dazu angewiesen werden.

Um eine Option festzulegen, kopieren Sie einfach die Option in das Feld Feature-Namen hinzufügen und klicken Sie auf Hinzufügen. Legen Sie dann den Wert fest oder aktivieren Sie die Option, je nach den erhaltenen Anweisungen.

SaaS-Anwendung

InformationshinweisDiese Registerkarte ist nur verfügbar, wenn Daten aus SaaS-Anwendungsquellen verschoben werden.
Informationshinweis
  • Die Option Verarbeitungsintervall ändern wurde auf die Registerkarte Allgemein verschoben.
  • Die Option Parallele Ausführung wurde in Maximale Anzahl parallel zu ladender Tabellen umbenannt und auf die Registerkarte Vollständiges Laden verschoben.
  • Die Option LOB wurde in LOB-Spalten einschließen und Spaltengröße beschränken auf (KB) umbenannt und auf die Registerkarte Metadaten verschoben.
  • Für den anfänglichen Ladevorgang

  • Beim Verschieben von Daten aus SaaS-Anwendungsdatenquellen können Sie festlegen, wie der anfängliche vollständige Ladevorgang durchgeführt werden soll.

    InformationshinweisFür diese Einstellungen wird Data Movement Gateway Version 2022.11.74 oder höher benötigt.
    Zwischengespeicherte Daten verwenden

    Mit dieser Option können Sie gecachte Daten verwenden, die bei der Erzeugung von Metadaten mit ausgewählter Option Vollständiger Datenscan gelesen wurden.

    Dadurch ist weniger Aufwand für API-Nutzung und -Kontingente nötig, da die Daten bereits von der Quelle gelesen wurden. Etwaige Änderungen seit dem anfänglichen Datenscan können von Change Data Capture (CDC) festgestellt werden.

    Daten von Quelle laden

    Mit dieser Option wird ein neuer Ladevorgang von der Datenquelle durchgeführt. Diese Option ist nützlich, wenn:

    • Der Metadaten-Scan nicht erst kürzlich durchgeführt wurde.

    • Der Quelldatensatz klein ist und sich häufig ändert, und Sie keinen vollständigen Änderungsverlauf beibehalten möchten.

  • Änderungen alle (Minuten) lesen

    Legen Sie das Intervall zwischen dem Lesen von Änderungen aus der Quelle in Minuten fest. Der gültige Bereich ist 1 bis 1440.

    InformationshinweisDiese Option ist nur für Datenaufgaben mit der Aktualisierungsmethode Change Data Capture (CDC) verfügbar.

Hat diese Seite Ihnen geholfen?

Wenn Sie Probleme mit dieser Seite oder ihren Inhalten feststellen – einen Tippfehler, einen fehlenden Schritt oder einen technischen Fehler –, teilen Sie uns bitte mit, wie wir uns verbessern können!