Datenreplikations-Aufgabeneinstellungen
Sie können Einstellungen für die Datenreplikationsaufgabe konfigurieren.
-
Öffnen Sie die Replikationsaufgabe und klicken Sie in der Symbolleiste auf Einstellungen.
Das Dialogfeld Einstellungen: <Aufgaben-Name> wird geöffnet. Die verfügbaren Einstellungen werden unten beschrieben.
Allgemein
Auf dieser Registerkarte können Sie den Replikationsmodus, die Bereitstellungseinstellungen (falls verfügbar) und den Modus für das Anwenden der Änderungen auf das Ziel ändern.
Replikationsmodus
Die folgenden Replikationsmodi sind verfügbar:
- Vollständiges Laden: Lädt die Daten aus den ausgewählten Quelltabellen in die Zielplattform und erstellt bei Bedarf die Zieltabellen. Vollständiges Laden findet automatisch statt, wenn die Aufgabe gestartet wird, kann aber bei Bedarf auch manuell durchgeführt werden.
-
Änderungen anwenden: Aktualisiert die Zieltabellen fortlaufend mit allen an den Quelltabellen vorgenommenen Änderungen.
-
Änderungen speichern: Speichert die Änderungen an den Quelltabellen in Änderungstabellen (eine pro Quelltabelle).
Weitere Informationen finden Sie unter Änderungen speichern.
Bei der Arbeit mit Data Movement Gateway werden Änderungen an der Quelle nahezu in Echtzeit erfasst. Bei der Arbeit ohne Data Movement Gateway (beispielsweise mit einem Qlik Talend Cloud Starter-Abonnement oder wenn Keine ausgewählt wurde) werden Änderungen entsprechend den Scheduler-Einstellungen erfasst. Weitere Informationen finden Sie unter Planen von Aufgaben beim Arbeiten ohne Data Movement Gateway.
Wenn Sie Änderungen speichern oder Änderungen anwenden auswählen und Ihre Quelldaten auch Tabellen, die CDC nicht unterstützen, oder Ansichten enthalten, werden zwei Daten-Pipelines erstellt. Eine Pipeline wird für Tabellen verwendet, die CDC unterstützen, die andere für alle anderen Tabellen und Ansichten, die nur Vollständiges Laden unterstützen.
Verbindung zu einem Bereitstellungsbereich
Wenn die Replikation an die unten aufgelisteten Data Warehouses erfolgt, müssen Sie einen Bereitstellungsbereich einrichten. Die Daten werden im Bereitstellungsbereich verarbeitet und vorbereitet, bevor sie an das Warehouse übertragen werden.
Wählen Sie entweder einen vorhandenen Bereitstellungsbereich aus oder klicken Sie auf Neu erstellen, um einen neuen Bereitstellungsbereich zu definieren, und befolgen Sie die Anleitungen in Verbinden mit Cloud-Speicher.
Um die Verbindungseinstellungen zu bearbeiten, klicken Sie auf Bearbeiten. Um die Verbindung zu testen (empfohlen), klicken Sie auf Verbindung testen.
Weitere Informationen dazu, welche Bereitstellungsbereiche für welche Data Warehouses unterstützt werden, finden Sie in der Spalte Als Bereitstellungsbereich unterstützt in Zielplattform-Anwendungsfälle und unterstützte Versionen.
Modus „Änderungen anwenden“
Änderungen werden mit einer der folgenden Methoden auf die Zieltabellen angewendet:
- Stapeloptimiert: Dies ist die Standardeinstellung. Wenn diese Option ausgewählt ist, werden Änderungen in Stapeln angewendet. Es wird eine Vorverarbeitung ausgeführt, um die Transaktionen auf die effizienteste Weise in Stapeln zu gruppieren.
- Transaktional: Wählen Sie diese Option aus, um jede Transaktion einzeln in der Reihenfolge des Commit anzuwenden. In diesem Fall ist strikte referenzielle Integrität für alle Tabellen gewährleistet.
Daten hochladen
Maximale Dateigröße
Die maximale Größe, die eine Datei erreichen kann, bevor sie geschlossen wird. Kleinere Dateien könnten (abhängig vom Netzwerk) schneller hochgeladen werden und die Leistung verbessern, wenn diese Möglichkeit zusammen mit der parallelen Ausführungsoption verwendet wird. Generell wird aber davon abgeraten, die Datenbank mit kleinen Dateien zu überfüllen.
Metadaten
Standard
-
Zieltabellenschema: Das Schema des Ziels, in das alle Quelltabellen repliziert werden, wenn Sie nicht das Quelltabellenschema verwenden möchten, bzw. wenn die Quelldatenbank kein Schema enthält.
InformationshinweisBeim Replizieren an ein Oracle-Ziel ist das Standard-Zieltabellenschema „system“. Beachten Sie auch Folgendes: Wenn Sie dieses Feld leer lassen (in welchem Fall das Quellschema verwendet wird), müssen Sie sich vergewissern, dass das Quellschema bereits im Ziel vorhanden ist. Andernfalls schlägt die Aufgabe fehl.InformationshinweisDie maximal zulässige Länge des Schemanamens ist 128 Zeichen.
LOB-Einstellungen
Die verfügbaren LOB-Einstellungen variieren je nach dem ausgewählten Replikationsziel. Da Data Warehouse-Ziele keine unbegrenzte LOB-Spaltengröße unterstützen, ist diese Option nicht verfügbar, wenn an ein Data Warehouse repliziert wird.
LOB-Einstellungen für Ziele, die keine Data Warehouses sind
- LOB-Spalten nicht einschließen: Wählen Sie diese Option, wenn Sie die LOB-Quellspalten nicht replizieren möchten.
-
LOB-Spaltengröße beschränken auf (KB): Dies ist die Standardoption. Wählen Sie diese Option aus, wenn Sie nur kleine LOBs replizieren möchten oder wenn die Zielplattform keine unbegrenzte LOB-Größe unterstützt. Der maximal zulässige Wert für dieses Feld ist 102400 KB (100 MB).
Wenn kleine LOBs repliziert werden, ist diese Option effizienter als die Option LOB-Spaltengröße nicht beschränken, da die LOBs „inline“ repliziert werden, nicht per „lookup“ aus der Quelle. Während der Änderungsverarbeitung werden kleine LOBs in der Regel per „lookup“ aus der Quelle repliziert.
Die Beschränkung gilt für die Anzahl der LOB-Bytes, die vom Quell-Endpunkt gelesen werden. Bei BLOB-Spalten entspricht die Ziel-BLOB-Größe genau der angegebenen Beschränkung. Bei CLOB- und NCLOB-Spalten kann die Ziel-LOB-Größe von der angegebenen Beschränkung abweichen, wenn Quell- und Ziel-LOB nicht den gleichen Zeichensatz haben. In diesem Fall führt die Datenaufgabe eine Zeichensatzkonvertierung durch, was zu einer Diskrepanz zwischen der Größe des Quell- und des Ziel-LOBs führen kann.
Da der Wert der Option „LOB-Größe begrenzen auf“ in Byte angegeben wird, muss die Größe nach den folgenden Formeln berechnet werden:
- BLOB: Die Länge des größten LOB.
- NCLOB: Die Länge des längsten TEXT in Zeichen, multipliziert mit zwei (da Zeichen als Doppel-Byte verarbeitet werden). Wenn die Daten 4-Byte-Zeichen enthalten, multiplizieren Sie mit vier.
- CLOB: Die Länge des längsten TEXT in Zeichen (da Zeichen als UTF8-Zeichen verarbeitet werden). Wenn die Daten 4-Byte-Zeichen enthalten, multiplizieren Sie mit zwei.
Informationshinweis- Alle LOBs, die die angegebenen Größe überschreiten, werden abgeschnitten.
- Während der Änderungsverarbeitung aus einer Oracle-Quelle werden Inline-BLOBs inline repliziert.
- Änderungen an dieser Einstellung betreffen vorhandene Tabellen erst, nachdem diese neu geladen wurden.
-
LOB-Spaltengröße nicht beschränken: Wenn diese Option ausgewählt ist, werden LOB-Spalten unabhängig von der Größe repliziert.
InformationshinweisDas Replizieren von LOB-Spalten kann die Leistung beeinträchtigen. Das gilt insbesondere für große LOB-Spalten, für die die Replikationsaufgabe ein Lookup in der Quelltabelle durchführen muss, um den LOB-Quellwert abzurufen.-
Optimieren, wenn LOB-Größe kleiner als: Wählen Sie diese Option aus, wenn Sie sowohl kleine als auch große LOBs replizieren müssen und die meisten LOBs klein sind.
InformationshinweisDiese Option wird nur für die folgenden Quellen und Ziele unterstützt:
-
Quellen: Oracle, Microsoft SQL Server, MySQL, PostgreSQL und IBM DB2 for LUW
-
Ziele: Oracle, Microsoft SQL Server, MySQL, PostgreSQL.
Wenn diese Option während des vollständigen Ladens ausgewählt wird, werden die kleinen LOBs „inline“ repliziert (was effizienter ist), und die großen LOBs werden per Lookup in der Quelltabelle repliziert. Während der Änderungsverarbeitung werden jedoch sowohl kleine als auch große LOBs per Lookup in der Quelltabelle repliziert.
InformationshinweisWenn diese Option ausgewählt ist, prüft die Replikationsaufgabe alle LOB-Größen, um zu bestimmen, welche „inline“ übertragen werden. LOBs, die die angegebene Größe überschreiten, werden mit dem vollständigen LOB-Modus repliziert.
Wenn Sie daher wissen, dass die meisten LOBs größer als die angegebene Einstellung sind, sollte stattdessen die Option Unbegrenzte LOB-Spalten replizieren verwendet werden.
-
-
Blockgröße (KB): Optional können Sie die Größe der LOB-Blöcke ändern, die beim Replizieren der Daten an das Ziel verwendet werden. Die Standardblockgröße sollte in den meisten Fällen genügen. Wenn jedoch Leistungsprobleme auftreten, kann durch Anpassen der Größe die Leistung verbessert werden.
InformationshinweisIn manchen Datenbanken werden Datentypen validiert, wenn die Daten eingefügt oder aktualisiert werden. In diesen Fällen kann die Replikation von strukturierten Datentypen (z. B. XML, JSON, GEOGRAPHY usw.) fehlschlagen, wenn die Daten größer als die angegebene Blockgröße sind.
-
LOB-Einstellungen für unterstützt Data Warehouse-Ziele
-
LOB-Spalten einbeziehen und Spaltengröße beschränken auf (KB):
Sie können sich entscheiden, LOB-Spalten in die Aufgabe einzuschließen, und die maximale LOB-Größe festlegen. LOBs, die die maximale Größe überschreiten, werden abgeschnitten.
Erweitert
Kontrolltabelleneinstellungen
-
Kontrolltabellenschema: Geben Sie das Zielschema für die Kontrolltabellen an, wenn diese im Quellschema (Standardeinstellung) oder im Zielschema nicht erstellt werden sollen.
InformationshinweisDie maximal zulässige Länge des Schemanamens ist 128 Zeichen. - Zielkontrolltabellen im Tablespace erstellen: Wenn das Replikationsziel Oracle ist, geben Sie den Tablespace an, in dem die Zielkontrolltabellen erstellt werden sollen. Wenn Sie in dieses Feld keine Informationen eingeben, werden die Tabellen im Standard-Tablespace in der Zieldatenbank erstellt.
- Indizes für Zielkontrolltabellen im Tablespace erstellen:Wenn das Replikationsziel Oracle ist, geben Sie den Tablespace an, in dem die Kontrolltabellenindizes erstellt werden sollen. Wenn Sie in dieses Feld keine Informationen eingeben, werden die Indizes im gleichen Tablespace wie die Kontrolltabellen erstellt.
- Zeitfenster für Replikationsverlauf (Minuten): Die Länge der einzelnen Zeitfenster in der Kontrolltabelle Replikationsverlauf. Der Standardwert ist 5 Minuten.
Kontrolltabellenauswahl
Wählen Sie die Kontrolltabellen aus, die auf der Zielplattform erstellt werden sollen:
Logischer Name | Name in Ziel |
---|---|
Ausnahmen anwenden | attrep_apply_exceptions |
Replikationsstatus | attrep_status |
Ausgesetzte Tabellen | attrep_suspended_tables |
Replikationsverlauf | attrep_history |
DDL-Verlauf |
attrep_ddl_history Informationshinweis
Die Tabelle „DDL-Verlauf“ wird nur von den folgenden Zielplattformen unterstützt:
|
Weitere Informationen zu Kontrolltabellen finden Sie unter Kontrolltabellen.
Vollständiges Laden
Standard
Wenn die Zieltabelle bereits vorhanden ist: Wählen Sie eine der folgenden Optionen aus der Liste aus, um zu bestimmen, wie das Laden des Ziels beim Starten des vollständigen Ladens verarbeitet werden soll:
Die Option zum Löschen oder Abschneiden der Zieltabellen ist nur relevant, wenn diese Vorgänge vom Quellendpunkt unterstützt werden.
-
Tabelle löschen und erstellen: Die Tabelle wird gelöscht, und an ihrer Stelle wird eine neue Tabelle erstellt.
InformationshinweisDie Kontrolltabellen der Replikationsaufgabe werden nicht gelöscht. Alle ausgesetzten Tabellen, die gelöscht werden, werden aber auch aus der Kontrolltabelle attrep_suspended_tables gelöscht, wenn die zugeordnete Aufgabe neu geladen wird.
-
Vor Laden ABSCHNEIDEN: Die Daten werden abgeschnitten, ohne dass sich dies auf die Tabellenmetadaten auswirkt. Hinweis: Wenn diese Option ausgewählt wird, hat das Aktivieren der Option Primärschlüssel oder eindeutigen Index nach Abschluss des vollständigen Ladens erstellen keine Auswirkung.
InformationshinweisNicht unterstützt, wenn Microsoft Fabric die Zielplattform ist. - Ignorieren: Vorhandene Daten und Metadaten der Zieltabelle sind nicht betroffen. Neue Daten werden zur Tabelle hinzugefügt.
Erweitert
Leistungsfeinabstimmung
Wenn die Datenreplikation zu langsam verläuft, kann eine Anpassung der folgenden Parameter die Leistung verbessern.
- Maximale Anzahl Tabellen: Geben Sie die maximale Anzahl Tabellen ein, die gleichzeitig in das Ziel geladen werden können. Der Standardwert ist 5.o
-
Zeitüberschreitung für Transaktionseinheitlichkeit (Sekunden): Geben Sie die Anzahl der Sekunden ein, die die Replikationsaufgabe auf den Abschluss von offenen Transaktionen warten soll, bevor mit dem vollständigen Ladevorgang begonnen wird. Der Standardwert ist 600 (10 Minuten). Die Replikationsaufgabe beginnt mit dem vollständigen Laden, nachdem der Zeitüberschreitungswert erreicht ist, auch wenn offene Transaktionen vorhanden sind.
InformationshinweisUm Transaktionen zu replizieren, die beim Starten des vollständigen Ladens geöffnet waren, für die aber erst nach Erreichen des Zeitüberschreitungswerts ein Commit durchgeführt wurde, müssen Sie die Zieltabellen neu laden. - Commit-Rate beim vollständigen Laden: Die maximale Anzahl der Ereignisse, die gleichzeitig übertragen werden können. Der Standardwert ist 10000.
Nach Abschluss des vollständigen Ladens
Sie können festlegen, dass die Aufgabe nach Abschluss des vollständigen Ladens automatisch angehalten wird. Das ist nützlich, wenn Sie DBA-Vorgänge an den Zieltabellen durchführen müssen, bevor die Phase „Änderungen anwenden“ (CDC) der Aufgabe beginnt.
Während des vollständigen Ladens werden alle DML-Vorgänge, die in den Quelltabellen durchgeführt werden, zwischengespeichert. Nach Abschluss des vollständigen Ladens werden die zwischengespeicherten Änderungen automatisch auf die Zieltabellen angewendet (vorausgesetzt, die unten beschriebenen Optionen Vor/Nach Anwenden der zwischengespeicherten Änderungen sind deaktiviert).
- Primärschlüssel oder eindeutigen Index erstellen: Wählen Sie diese Option aus, wenn Sie die Erstellung des Primärschlüssels oder des eindeutigen Index im Ziel bis nach dem Abschluss des vollständigen Ladens aufschieben möchten.
- Aufgabe anhalten: Informationshinweis
Diese Einstellungen sind in folgenden Fällen nicht verfügbar:
- Replizieren aus SaaS-Anwendungsquellen (da keine zwischengespeicherten Ereignisse vorliegen)
- Replizieren an Data Warehouse-Ziele
Vor Anwenden der zwischengespeicherten Änderungen: Wählen Sie diese Option aus, damit die Aufgabe nach Abschluss des vollständigen Ladens angehalten wird.
Nach Anwenden der zwischengespeicherten Änderungen: Wählen Sie diese Option aus, damit die Aufgabe angehalten wird, sobald die Daten in allen Tabellen der Aufgabe einheitlich sind.
InformationshinweisWenn Sie konfigurieren, dass die Aufgabe nach Abschluss des vollständigen Ladens angehalten wird, beachten Sie Folgendes:
- Die Aufgabe wird nicht sofort angehalten, wenn das vollständige Laden abgeschlossen ist. Sie wird erst dann angehalten, nachdem der erste Satz Änderungen erfasst wurde (da dies das Anhalten der Aufgabe auslöst). Je nachdem, wie häufig die Quelldatenbank aktualisiert wird, kann dies eine Zeitlang dauern. Nach Anhalten der Aufgabe werden die Änderungen erst dann auf das Ziel angewendet, wenn die Aufgabe fortgesetzt wird.
- Wenn Sie Vor Anwenden der zwischengespeicherten Änderungen auswählen, kann sich dies auf die Leistung auswirken, da die zwischengespeicherten Änderungen erst auf die Tabellen angewendet werden (auch auf diejenigen, deren vollständiges Laden bereits abgeschlossen ist), nachdem das vollständige Laden der letzten Tabelle abgeschlossen ist.
- Wenn diese Option ausgewählt wird und ein DDL während des vollständigen Ladevorgangs in einer der Quelltabellen ausgeführt wird (in einer Aufgabe „Vollständiges Laden und Änderungen anwenden“), lädt die Replikationsaufgabe die Tabelle neu. Das bedeutet in der Praxis, dass alle in den Quelltabellen ausgeführten DML-Vorgänge im Ziel repliziert werden, bevor die Aufgabe angehalten wird.
Für den anfänglichen Ladevorgang
Beim Verschieben von Daten aus SaaS-Anwendungsdatenquellen können Sie festlegen, wie der anfängliche vollständige Ladevorgang durchgeführt werden soll.
Zwischengespeicherte Daten verwenden |
Mit dieser Option können Sie zwischengespeicherte Daten verwenden, die bei der Erzeugung von Metadaten mit ausgewählter Option Vollständiger Datenscan gelesen wurden. Dadurch ist weniger Aufwand für API-Nutzung und -Kontingente nötig, da die Daten bereits von der Quelle gelesen wurden. Etwaige Änderungen seit dem anfänglichen Datenscan können von Change Data Capture (CDC) festgestellt werden. |
Daten von Quelle laden |
Mit dieser Option wird ein neuer Ladevorgang von der Datenquelle durchgeführt. Diese Option ist nützlich, wenn:
|
Änderungen anwenden
Diese Einstellungen sind nur verfügbar, wenn der Replikationsmodus Änderungen anwenden aktiviert ist.
Standard
DDL-Änderungen auf Zieltabelle anwenden
Die folgenden Optionen bestimmen, ob DDL-Vorgange, die in der Quelltabelle ausgeführt werden, auch in der zugehörigen Zieltabelle ausgeführt werden.
- Tabelle löschen: Wählen Sie die Option, um die Zieltabelle zu löschen, wenn die Quelltabelle gelöscht wird.
-
Tabelle verkürzen: Wählen Sie die Option, um die Zieltabelle zu verkürzen, wenn die Quelltabelle verkürzt wird.
InformationshinweisNicht unterstützt, wenn Microsoft Fabric die Zielplattform ist. - Tabelle verändern: Wählen Sie die Option, um die Zieltabelle zu verändern, wenn die Quelltabelle verändert wird.
Feinabstimmung der Änderungsverarbeitung
-
Stapeländerungen gleichzeitig auf mehrere Tabellen anwenden: Die Auswahl dieser Option kann die Leistung verbessern, wenn Änderungen aus zahlreichen Quelltabellen angewendet werden.
InformationshinweisDiese Option wird nur in folgenden Fällen unterstützt:
- Der Modus „Änderungen anwenden“ ist auf Stapeloptimiert festgelegt. Weitere Informationen finden Sie unter Allgemein.
- Die Replikationsziele sind nicht MySQL, PostgreSQL, Oracle und Google BigQuery.
-
Maximale Anzahl Tabellen: Die maximale Anzahl der Tabellen, auf die Stapeländerungen gleichzeitig angewendet werden. Der Standardwert ist fünf, der Höchstwert 50 und der Mindestwert zwei.
Wenn die Option Stapeländerungen gleichzeitig auf mehrere Tabellen anwenden aktiviert ist, gelten die folgenden Einschränkungen:
-
Die Aufgabenfehlerbehandlungs-Richtlinie bleibt unverändert für Fehler der Kategorien Umgebungsbezogen und Tabelle, aber die Standardwerte für die Fehlerkategorien Daten und Anwendungskonflikte lauten wie folgt:
- Datenfehler:
- Datenabschneidefehler: Datensatz in Ausnahmetabelle protokollieren
- Andere Datenfehler: Tabelle aussetzen
- Anwendungskonfliktfehler:
- Löschungen: Datensatz ignorieren
Einfügungen: UPDATE für vorhandenen Zieldatensatz
InformationshinweisDies ist für ein Snowflake-Ziel nicht relevant (da Snowflake keine Primärschlüssel unterstützt).- Aktualisierungen: Datensatz ignorieren
- Eskalierungsaktion:
- Die Eskalierungsaktion sowohl für Daten-Fehler als auch für Anwendungskonflikte wird nicht unterstützt.
- Die Kontrolltabelle attrep_apply_exception wird nicht unterstützt.
- Für Datenfehler:
- Die Option Datensatz in Ausnahmetabelle protokollieren ist nur für Datenabschneidefehler verfügbar.
- Es ist keine Option Ignorieren vorhanden.
- Für Anwendungskonflikte:
- Die Option Datensatz in Ausnahmetabelle protokollieren ist nicht verfügbar.
- Die Option Ignorieren ist nur für den Anwendungskonflikt Kein Datensatz für die Anwendung einer AKTUALISIERUNG gefunden verfügbar.
- Datenfehler:
Siehe auch: Fehlerbearbeitung.
-
Anzahl der pro Änderungsverarbeitungsbefehl angewendeten Änderungen begrenzen auf: Um die Anzahl der pro Änderungsverarbeitungsbefehl angewendeten Änderungen zu begrenzen, aktivieren Sie dieses Kontrollkästchen und ändern Sie dann optional den Standardwert. Der Standardwert ist 10.000.
InformationshinweisDiese Option wird nur mit den folgenden Zielen unterstützt: MySQL, PostgreSQL, Oracle und Google BigQuery.
Erweitert
Weitere Informationen finden Sie unter Feinabstimmung der Änderungsverarbeitung.
Änderungen speichern
Diese Einstellungen sind nur verfügbar, wenn der Replikationsmodus Änderungen speichern aktiviert ist.
Standard
DDL-Optionen
Wählen Sie eine der folgenden Optionen aus, um zu bestimmen, wie mit DDL-Vorgängen in den Quelltabellen verfahren wird:
- Auf Änderungstabelle anwenden: DDL-Vorgänge an den Quelltabellen (z. B. das Hinzufügen einer Spalte) werden nur auf die entsprechende Änderungstabelle angewendet.
- Ignorieren: Alle DDL-Vorgänge an Quelltabellen werden ignoriert.
Erweitert
Bei Aktualisierung
Wählen Sie Vor und nach Image speichern aus, um sowohl die Daten vor als auch nach dem UPDATE zu speichern. Wenn die Option nicht ausgewählt wird, werden nur die Daten nach dem UPDATE gespeichert.
Änderungstabellenerstellung
Im folgenden Abschnitt werden die verfügbaren Optionen beschrieben, wenn Änderungen in Änderungstabellen gespeichert werden.
- Suffix: Geben Sie einen String an, der als Suffix für alle Änderungstabellen verwendet werden soll. Der Standardwert ist __ct. Die Namen der Änderungstabellen sind der Name der Zieltabelle mit angehängtem Suffix. Wenn Sie beispielsweise den Standardwert verwendet, lautet der Name der Änderungstabelle HR__ct.
- Präfix der Kopfzeilenspalte: Geben Sie einen String an, der als Präfix für alle Kopfzeilenspalten der Änderungstabellen verwendet werden soll. Der Standardwert ist header__. Beispiel: Wenn der Standardwert verwendet wird, lautet der Name der Kopfzeilenspalte stream_position header__stream_position.
Weitere Informationen zu Änderungstabellen finden Sie unter Verwenden von Änderungstabellen.
Wenn Änderungstabelle beim Start des vollständigen Ladens vorhanden ist: Wählen Sie eine der folgenden Optionen aus, um zu bestimmen, wie die Änderungstabellen geladen werden, wenn die Replikation mit vollständigem Laden startet:
- Änderungstabelle löschen und erstellen: Die Tabelle wird gelöscht, und an ihrer Stelle wird eine neue Tabelle erstellt.
-
Alte Änderungen löschen und neue Änderungen in vorhandener Änderungstabelle speichern: Die Daten werden abgeschnitten und hinzugefügt, ohne dass sich dies auf die Tabellenmetadaten auswirkt.
InformationshinweisNicht unterstützt, wenn Microsoft Fabric die Zielplattform ist. - Alte Änderungen beibehalten und neue Änderungen in vorhandener Änderungstabelle speichern: Daten und Metadaten der vorhandenen Änderungstabelle sind nicht betroffen.
Tabellenkopfzeilenspalten
Die Kopfzeilenspalten der Änderungstabelle enthalten Informationen zu Änderungsverarbeitungsvorgängen, wie den Typ des Vorgangs (z. B. INSERT), die Commit-Uhrzeit usw. Wenn Sie diese Informationen nicht alle benötigen, können Sie die verschieben-Aufgabe so konfigurieren, dass die Änderungstabellen mit ausgewählten Kopfzeilenspalten (oder ohne Kopfzeilenspalten) erstellt werden, was ihren Speicherbedarf in der Zieldatenbank reduziert.
Eine Beschreibung der Kopfzeilenspalten finden Sie unter Änderungstabellen.
Fehlerbearbeitung
Standard
Anwendungskonflikte
Beim Anwenden von INSERT Schlüssel duplizieren: Wählen Sie, welche Aktionen durchgeführt werden sollen, wenn ein Konflikt bei einem INSERT-Vorgang besteht.
-
Ignorieren: Die Aufgabe wird fortgesetzt und der Fehler wird ignoriert.
-
Vorhandenen Zieldatensatz AKTUALISIEREN: Der Zieldatensatz mit dem gleichen Primärschlüssel wie der EINGEFÜGTE Quelldatensatz wird aktualisiert.
- Datensatz in Ausnahmetabelle protokollieren (Standard): Die Aufgabe wird fortgesetzt und der Fehler wird in die Ausnahmetabelle geschrieben.
-
Tabelle aussetzen: Die Aufgabe wird fortgesetzt, aber die Daten aus der Tabelle mit dem Fehlerdatensatz werden in einen Fehlerzustand verschoben, und ihre Daten werden nicht repliziert.
- Aufgabe anhalten: Die Aufgabe wird angehalten, und ein manueller Eingriff ist erforderlich.
Kein Datensatz für die Anwendung eines UPDATE gefunden: Wählen Sie, welche Aktion durchgeführt werden soll, wenn ein Konflikt bei einem UPDATE-Vorgang besteht.
- Ignorieren: Die Aufgabe wird fortgesetzt und der Fehler wird ignoriert.
-
Fehlenden Zieldatensatz EINFÜGEN: Der fehlende Zieldatensatz wird in die Zieltabelle eingefügt. Wenn der Quellendpunkt Oracle ist, muss bei Auswahl dieser Option ergänzende Protokollierung für alle Quelltabellenspalten aktiviert sein.
- Datensatz in Ausnahmetabelle protokollieren (Standard): Die Aufgabe wird fortgesetzt und der Fehler wird in die Ausnahmetabelle geschrieben.
-
Tabelle aussetzen: Die Aufgabe wird fortgesetzt, aber die Daten aus der Tabelle mit dem Fehlerdatensatz werden in einen Fehlerzustand verschoben, und ihre Daten werden nicht repliziert.
- Aufgabe anhalten: Die Aufgabe wird angehalten, und ein manueller Eingriff ist erforderlich.
Erweitert
Die Datenfehlerbehandlung wird nur im Replikationsmodus „Änderungen anwenden“ unterstützt (nicht bei vollständigem Laden).
Datenfehler
Für Datenabschneidefehler: Wählen Sie aus, was geschehen soll, wenn ein Abschneiden in einem oder mehreren spezifischen Datensätzen auftritt. Sie können eine der folgenden Optionen aus der Liste auswählen:
- Ignorieren: Die Aufgabe wird fortgesetzt und der Fehler wird ignoriert.
- Datensatz in Ausnahmetabelle protokollieren (Standard): Die Aufgabe wird fortgesetzt und der Fehler wird in die Ausnahmetabelle geschrieben.
- Tabelle aussetzen: Die Aufgabe wird fortgesetzt, aber die Daten aus der Tabelle mit dem Fehlerdatensatz werden in einen Fehlerzustand verschoben, und ihre Daten werden nicht repliziert.
- Aufgabe anhalten: Die Aufgabe wird angehalten, und ein manueller Eingriff ist erforderlich.
Für andere Datenfehler: Wählen Sie aus, was geschehen soll, wenn ein Fehler in einem oder mehreren spezifischen Datensätzen auftritt. Sie können eine der folgenden Optionen aus der Liste auswählen:
- Ignorieren: Die Aufgabe wird fortgesetzt und der Fehler wird ignoriert.
- Datensatz in Ausnahmetabelle protokollieren (Standard): Die Aufgabe wird fortgesetzt und der Fehler wird in die Ausnahmetabelle geschrieben.
- Tabelle aussetzen: Die Aufgabe wird fortgesetzt, aber die Daten aus der Tabelle mit dem Fehlerdatensatz werden in einen Fehlerzustand verschoben, und ihre Daten werden nicht repliziert.
- Aufgabe anhalten: Die Aufgabe wird angehalten, und ein manueller Eingriff ist erforderlich.
Fehlerbearbeitung eskalieren, wenn andere Datenfehler (pro Tabelle) die folgende Anzahl erreichen: Aktivieren Sie dieses Kontrollkästchen, um die Fehlerbearbeitung zu eskalieren, wenn die Anzahl der anderen Datenfehler (keine Datenabschneidung) pro Tabelle die angegebene Anzahl erreicht. Gültige Werte sind 1-10.000.
Eskalierungsaktion: Wählen Sie aus, was geschehen soll, wenn die Fehlerbearbeitung eskaliert wird. Beachten Sie, dass die verfügbaren Aktionen von der Aktion abhängen, die aus der oben beschriebenen Dropdown-Liste Für andere Datenfehler ausgewählt wurde.
-
Tabelle aussetzen (Standard): Die Aufgabe wird fortgesetzt, aber die Daten aus der Tabelle mit dem Fehlerdatensatz werden in einen Fehlerzustand verschoben, und die Daten werden nicht verschoben.
InformationshinweisDas Verhalten ist je nach Änderungsverarbeitungsmodus unterschiedlich:
-
Im Modus Transaktional anwenden werden die letzten Änderungen nicht verschoben.
-
Im Modus Stapeloptimierte Anwendung ist eine Situation möglich, in der die Daten gar nicht verschoben oder nur teilweise verschoben werden.
-
- Aufgabe anhalten: Die Aufgabe wird angehalten, und ein manueller Eingriff ist erforderlich.
- Datensatz in Ausnahmetabelle protokollieren: Die Aufgabe wird fortgesetzt und der Datensatz wird in die Ausnahmetabelle geschrieben.
Tabellenfehler
Beim Auftreten eines Tabellenfehlers: Wählen Sie eine der folgenden Optionen aus der Liste aus:
- Tabelle aussetzen (Standard): Die Aufgabe wird fortgesetzt, aber die Daten aus der Tabelle mit dem Fehlerdatensatz werden in einen Fehlerzustand verschoben, und ihre Daten werden nicht repliziert.
- Aufgabe anhalten: Die Aufgabe wird angehalten, und ein manueller Eingriff ist erforderlich.
Fehlerbearbeitung eskalieren, wenn Tabellenfehler (pro Tabelle) die folgende Anzahl erreichen: Aktivieren Sie dieses Kontrollkästchen, um die Fehlerbearbeitung zu eskalieren, wenn die Anzahl der Tabellenfehler pro Tabelle die angegebene Anzahl erreicht. Gültige Werte sind 1-10.000.
Eskalierungsaktion: Die Eskalationsrichtlinie für Tabellenfehler ist auf Aufgabe anhalten festgelegt und kann nicht geändert werden.
Anwendungskonflikte
Kein Datensatz für die Anwendung von DELETE gefunden: Wählen Sie, welche Aktion durchgeführt werden soll, wenn ein Konflikt bei einem DELETE-Vorgang besteht.
- Ignorieren: Die Aufgabe wird fortgesetzt und der Fehler wird ignoriert.
- Datensatz in Ausnahmetabelle protokollieren: Die Aufgabe wird fortgesetzt und der Fehler wird in die Ausnahmetabelle geschrieben.
- Tabelle aussetzen: Die Aufgabe wird fortgesetzt, aber die Daten aus der Tabelle mit dem Fehlerdatensatz werden in einen Fehlerzustand verschoben, und ihre Daten werden nicht repliziert.
- Aufgabe anhalten: Die Aufgabe wird angehalten, und ein manueller Eingriff ist erforderlich.
Fehlerbearbeitung eskalieren, wenn Anwendungskonflikte (pro Tabelle) die folgende Anzahl erreichen: Aktivieren Sie dieses Kontrollkästchen, um die Fehlerbearbeitung zu eskalieren, wenn die Anzahl der Anwendungskonflikte pro Tabelle die angegebene Anzahl erreicht. Gültige Werte sind 1-10.000.
Eskalierungsaktion: Wählen Sie aus, was geschehen soll, wenn die Fehlerbearbeitung eskaliert wird.
- Datensatz in Ausnahmetabelle protokollieren (Standard): Die Aufgabe wird fortgesetzt und der Fehler wird in die Ausnahmetabelle geschrieben.
-
Tabelle aussetzen: Die Aufgabe wird fortgesetzt, aber die Daten aus der Tabelle mit dem Fehlerdatensatz werden in einen Fehlerzustand verschoben, und ihre Daten werden nicht repliziert.
InformationshinweisDas Verhalten ist je nach Änderungsverarbeitungsmodus unterschiedlich:
-
Im Modus Transaktional anwenden werden die letzten Änderungen nicht repliziert.
-
Im Modus Stapeloptimierte Anwendung ist eine Situation möglich, in der keine Datenreplikation bzw. nur eine teilweise Datenreplikation stattfindet.
-
-
Aufgabe anhalten: Die Aufgabe wird angehalten, und ein manueller Eingriff ist erforderlich.
Umgebungsbezogene Fehler
-
Maximale Anzahl Wiederholungsversuche: Wählen Sie diese Option aus und geben Sie dann die maximale Anzahl der Male ein, für die eine Aufgabe wiederholt werden soll, wenn ein wiederherstellbarer umgebungsbezogener Fehler eintritt. Nachdem die angegebene Anzahl Male versucht wurde, die Aufgabe zu wiederholen, wird die Aufgabe angehalten, und ein manueller Eingriff ist erforderlich.
Um eine Aufgabe nie zu wiederholen, deaktivieren Sie das Kontrollkästchen oder geben Sie „0“ an.
Um eine Aufgabe eine unendliche Anzahl von Malen zu wiederholen, geben Sie „-1“ an.
-
Intervall zwischen Wiederholungsversuchen (Sekunden): Verwenden Sie den Zähler zur Auswahl oder geben Sie die Anzahl Sekunden an, für die das System zwischen den Wiederholungsversuchen für eine Aufgabe wartet.
Gültige Werte sind 0-2.000.
-
- Wiederholungsintervall für lange Ausfälle erhöhen: Aktivieren Sie dieses Kontrollkästchen, um das Wiederholungsintervall für lange Ausfälle zu erhöhen. Wenn diese Option aktiviert ist, wird das Intervall zwischen den einzelnen Wiederholungsversuchen verdoppelt, bis das Maximale Wiederholungsintervall erreicht ist (und die Wiederholungsversuche werden entsprechend dem angegebenen maximalen Intervall fortgesetzt).
- Maximales Wiederholungsintervall (Sekunden): Verwenden Sie den Zähler für die Auswahl oder geben Sie die Anzahl der Sekunden ein, die zwischen den Wiederholungsversuchen für eine Aufgabe gewartet werden soll, wenn die Option Wiederholungsintervall für lange Ausfälle erhöhen aktiviert ist. Gültige Werte sind 0-2.000.
Feinabstimmung der Änderungsverarbeitung
Anpassung der Transaktionsauslagerung
-
Laufende Transaktionen an Festplatte auslagern, wenn:
Die Replikationsaufgabe bewahrt Transaktionen in der Regel im Arbeitsspeicher auf, bis der Commit-Vorgang an die Quelle bzw. an das Ziel abgeschlossen ist. Wenn die Transaktionen jedoch umfangreicher sind als der zugewiesene Arbeitsspeicher, oder wenn der Commit-Vorgang nicht innerhalb des angegebenen Zeitlimits abgeschlossen ist, werden sie auf die Festplatte ausgelagert.
- Der Gesamtarbeitsspeicher für Transaktionen überschreitet (MB): Der maximale Platz, den alle Transaktionen im Arbeitsspeicher belegen können, bevor sie an die Festplatte ausgelagert werden. Der Standardwert ist 1024.
- Transaktionsdauer überschreitet (Sekunden): Die maximale Zeit, die alle Transaktionen im Arbeitsspeicher bleiben können, bevor sie an die Festplatte ausgelagert werden. Die Dauer wird ab der Zeit berechnet, zu der die Replikationsaufgabe mit der Erfassung der Transaktion begann. Der Standardwert ist 60.
Stapeloptimierung
Die folgenden Einstellungen sind nur verfügbar, wenn der Anwendungsmodus auf Stapeloptimiert festgelegt ist.
- Stapeländerungen in Intervallen anwenden:
-
Größer als: Die Mindestwartezeit zwischen den einzelnen Anwendungen von Stapeländerungen. Der Standardwert ist 1.
Wenn Sie den Wert für Länger als erhöhen, reduziert sich die Häufigkeit, mit der Änderungen auf das Ziel angewendet werden, während gleichzeitig die Stapelgröße zunimmt. Dies kann die Leistung verbessern, wenn Änderungen auf Zieldatenbanken angewendet werden, die für die Verarbeitung großer Stapel optimiert sind.
- Kleiner als: Die maximale Wartezeit zwischen den einzelnen Anwendungen von Stapeländerungen (bevor eine Zeitüberschreitung erklärt wird). Dies ist also die maximal akzeptable Latenz. Der Standardwert ist 30. Dieser Wert bestimmt die maximale Wartezeit vor dem Anwenden der Änderungen, nachdem der Wert Länger als erreicht wurde.
-
Anwendung eines Satzes erzwingen, wenn Verarbeitungsspeicher größer ist als (MB):: Die maximale Arbeitsspeichermenge, die zur Vorverarbeitung im stapeloptimierten Anwendungsmodus verwendet werden kann. Der Standardwert ist 500.
Für die maximale Stapelgröße legen Sie diesen Wert auf die höchste Arbeitsspeichermenge fest, die Sie der Replikationsaufgabe zuweisen können. Dies kann die Leistung verbessern, wenn Änderungen auf Zieldatenbanken angewendet werden, die für die Verarbeitung großer Stapel optimiert sind.
Intervall
-
Änderungen alle (Minuten) lesen
Legen Sie das Intervall zwischen dem Lesen von Änderungen aus der Quelle in Minuten fest. Der gültige Bereich ist 1 bis 1440.
InformationshinweisDiese Option ist nur in folgenden Fällen verfügbar:
- Verwenden von Data Movement Gateway
- Bereitstellen aus SaaS-Anwendungsquellen
- Die Aufgabe ist mit der Aktualisierungsmethode Change Data Capture (CDC) definiert
Verschiedene Einstellungen
Anweisungs-Cache-Größe (Anzahl der Anweisungen)
Die maximale Anzahl der vorbereiteten Anweisungen zum Speichern auf dem Server zur späteren Ausführung (wenn Änderungen auf das Ziel angewendet werden). Der Standardwert ist 50. Der Höchstwert ist 200.
Aufgabenwiederherstellungsdaten in Zieldatenbank speichern
Wählen Sie diese Option aus, um aufgabenspezifische Wiederherstellungsinformationen in der Zieldatenbank zu speichern. Wenn diese Option ausgewählt ist, erstellt die Replikationsaufgabe eine Tabelle mit dem Namen attrep_txn_state in der Zieldatenbank. Diese Tabelle enthält Transaktionsdaten, die zum Wiederherstellen einer Aufgabe verwendet werden können, wenn die Dateien im Ordner Data Movement Gateway Data beschädigt sind oder wenn das Speichergerät, das den Ordner Data enthält, ausgefallen ist.
Änderungen mit SQL MERGE anwenden
Wenn diese Option nicht ausgewählt ist. führt die Replikationsaufgabe getrennte Massenbefehle INSERT, UPDATE und DELETE für jeden der einzelnen Änderungstypen in der Tabelle „Net Changes“ aus.
Diese Methode ist zwar hocheffizient, aber das Aktivieren der Option Änderungen mit SQL MERGE anwenden ist noch effizienter, wenn mit Endpunkte gearbeitet wird, die diese Option unterstützen.
Dies hat folgende Gründe:
- Es reduziert die Anzahl der pro Tabelle ausgeführten SQL-Anweisungen von drei auf eine. Bei den meisten UPDATE-Vorgängen in großen, unveränderlichen, dateibasierten Cloud-Datenbanken (wie Google Cloud BigQuery) müssen die betroffenen Dateien neu geschrieben werden. Für solche Vorgänge ist die Reduzierung der SQL-Anweisungen pro Tabelle von drei auf eine sehr signifikant.
- Die Zieldatenbank muss die Tabelle „Net Changes“ nur einmal scannen, was die E/A erheblich reduziert.
Inserts optimieren
Wenn Änderungen mit SQL MERGE anwenden zusammen mit der Option Inserts optimieren ausgewählt wird und es sich bei den Änderungen nur um INSERTs handelt, führt die Replikationsaufgabe INSERTs anstelle von SQL MERGE aus. Dies steigert in der Regel die Leistung und senkt die Kosten. Es kann aber auch zu duplizierten Datensätzen in der Zieldatenbank kommen.
- Die Optionen Änderungen mit SQL MERGE anwenden und Inserts optimieren sind nur für Aufgaben verfügbar, die mit den folgenden Zielendpunkten konfiguriert wurden:
- Google Cloud BigQuery
- Databricks
- Snowflake
- Die Optionen Änderungen mit SQL MERGE anwenden und Inserts optimieren werden für die folgenden Quellendpunkte nicht unterstützt:
- Salesforce
- Oracle
-
Wenn die Option Änderungen mit SQL MERGE anwenden aktiviert ist:
- Nicht schwerwiegende Datenfehler oder Datenfehler, die nicht wiederhergestellt werden können, werden als Tabellenfehler behandelt.
- Die Fehlerbehandlungsrichtlinie bei Anwendungskonflikten ist in den folgenden Einstellungen nicht bearbeitbar.
- Kein Datensatz für die Anwendung von DELETE gefunden: Datensatz ignorieren
Beim Anwenden von INSERT Schlüssel duplizieren: UPDATE für vorhandenen Zieldatensatz
InformationshinweisWenn auch die Option Inserts optimieren ausgewählt ist, wird die Option Beim Anwenden von INSERT Schlüssel duplizieren auf Duplikate im Ziel zulassen festgelegt.- Kein Datensatz für die Anwendung eines UPDATE gefunden: INSERT für fehlenden Zieldatensatz
- Eskalierungsaktion: Datensatz in Ausnahmetabelle protokollieren
- Die folgenden Optionen Für andere Datenfehler Datenfehlerbehandlungsrichtlinie sind nicht verfügbar:
- Datensatz ignorieren
- Datensatz in Ausnahmetabelle protokollieren
- Der Vorgang SQL MERGE selbst wird nur in den endgültigen Zieltabellen durchgeführt. INSERT-Vorgänge werden in den Änderungszwischentabellen durchgeführt (wenn die Replikationsmodi Änderungen anwenden oder Änderungen speichern aktiviert sind).
Transaktional anwenden
Die folgenden Einstellungen sind nur verfügbar, wenn der Anwendungsmodus auf Transaktional festgelegt ist.
-
Mindestanzahl Änderungen pro Transaktion: Die Mindestanzahl der Änderungen, die in jede Transaktion eingeschlossen werden sollen. Der Standardwert ist 1000.
InformationshinweisDie Replikationsaufgabe wendet die Änderungen auf das Ziel an, entweder, wenn die Anzahl der Änderungen größer oder gleich dem Wert für Mindestanzahl Änderungen pro Transaktion ist, ODER wenn der Zeitüberschreitungswert für den Stapel erreicht ist (siehe unten), je nachdem, welcher Fall zuerst eintritt. Da die Häufigkeit der Änderungsanwendung auf das Ziel von diesen beiden Parametern gesteuert wird, sind Änderungen an den Quelldatensätzen möglicherweise nicht sofort in den Zieldatensätzen ersichtlich. - Maximale Zeit für Stapeltransaktionen vor der Anwendung (Sekunden): Die maximale Zeit zum Erfassen von Transaktionen in Stapeln, bevor eine Zeitüberschreitung eintritt. Der Standardwert ist 1.
Schemaentwicklung
Wählen Sie aus, wie die folgenden DDL-Änderungstypen im Schema behandelt werden sollen. Wenn Sie die Einstellungen für die Schemaentwicklung geändert haben, müssen Sie die Aufgabe erneut vorbereiten. In der folgenden Tabelle wird beschrieben, welche Aktionen für die unterstützten DDL-Änderungen verfügbar sind.
DDL-Änderung | Auf Ziel anwenden | Ignorieren | Tabelle aussetzen | Aufgabe anhalten |
---|---|---|---|---|
Spalte hinzufügen | Ja | Ja | Ja | Ja |
Spaltendatentyp ändern | Ja | Ja | Ja | Ja |
Spalte umbenennen | Ja | Nein | Ja | Ja |
Tabelle umbenennen | Nein | Nein | Ja | Ja |
Spalte löschen | Ja | Ja | Ja | Ja |
Tabelle löschen | Ja | Ja | Ja | Ja |
Tabelle erstellen
Wenn Sie eine Auswahlregel verwendet haben, um Datensätze hinzuzufügen, die einem Muster entsprechen, werden neue Tabellen, die mit dem Muster übereinstimmen, erkannt und hinzugefügt. |
Ja | Ja | Nein | Nein |
Zeichenersetzung
Sie können Quellzeichen in der Zieldatenbank ersetzen oder löschen, bzw. Sie können Quellzeichen ersetzen oder löschen, die von einem ausgewählten Zeichensatz nicht unterstützt werden.
-
Alle Zeichen müssen als Unicode-Codepunkte angegeben werden.
- Die Zeichenersetzung wird auch in den Kontrolltabellen durchgeführt.
-
Ungültige Werte werden durch ein rotes Dreieck oben rechts in der Tabellenzelle gekennzeichnet. Wenn Sie den Mauszeiger über das Dreieck halten, wird die Fehlermeldung angezeigt.
-
Alle Umwandlungen auf Tabellenebene bzw. globalen Umwandlungen, die für die Aufgabe definiert sind, werden nach Abschluss der Zeichenersetzung durchgeführt.
-
Ersetzungsaktionen, die in der Tabelle Quellzeichen ersetzen oder löschen definiert sind, werden vor der Ersetzungsaktion in der Tabelle Quellzeichen ersetzen oder löschen, die vom ausgewählten Zeichensatz nicht unterstützt werden durchgeführt.
- Die Zeichenersetzung unterstützt keine LOB-Datentypen.
Ersetzen oder Löschen von Quellzeichen
Verwenden Sie die Tabelle Quellzeichen ersetzen oder löschen, um Ersetzungen für spezifische Quellzeichen zu definieren. Das kann beispielsweise nützlich sein, wenn die Unicode-Darstellung eines Zeichens in der Quell- und Zielplattform unterschiedlich ist. Zum Beispiel wird unter Linux das Minuszeichen im Shift_JIS-Zeichensatz als U+2212 dargestellt, unter Windows jedoch als U+FF0D.
Zweck | Vorgang |
---|---|
Ersetzungsaktionen definieren. |
|
Das angegebene Quell- oder Zielzeichen bearbeiten |
Klicken Sie auf am Ende der Zeile und wählen Sie Bearbeiten aus. |
Einträge aus der Tabelle löschen |
Klicken Sie auf am Ende der Zeile und wählen Sie Löschen aus. |
Ersetzen oder Löschen von Quellzeichen, die vom ausgewählten Zeichensatz nicht unterstützt werden
Verwenden Sie die Tabelle Vom Zeichensatz nicht unterstützte Quellzeichen, um ein einzelnes Ersatzzeichen für alle vom ausgewählten Zeichensatz nicht unterstützte Zeichen zu definieren.
Zweck | Vorgang |
---|---|
Eine Ersetzungsaktion definieren oder bearbeiten. |
|
Die Ersetzungsaktion deaktivieren. |
Wählen Sie den leeren Eintrag aus der Dropdown-Liste Zeichensatz aus. |
Weitere Optionen
Diese Optionen werden in der Benutzeroberfläche nicht angezeigt, da sie nur für bestimmte Versionen oder Umgebungen relevant sind. Daher sollten Sie diese Optionen nur festlegen, wenn Sie ausdrücklich vom Qlik-Support oder in der Produktdokumentation dazu angewiesen werden.
Um eine Option festzulegen, kopieren Sie einfach die Option in das Feld Feature-Namen hinzufügen und klicken Sie auf Hinzufügen. Legen Sie dann den Wert fest oder aktivieren Sie die Option, je nach den erhaltenen Anweisungen.
Planen von Aufgaben beim Arbeiten ohne Data Movement Gateway
Data Movement Gateway wird mit einem Qlik Talend Cloud Starter-Abonnement nicht unterstützt und ist für andere Abonnementstufen optional. Wenn Sie ohne Data Movement Gateway arbeiten, wird CDC (Change Data Capture) nahezu in Echtzeit nicht unterstützt. Sie halten die Zieldaten aktualisiert, indem Sie ein Planungsintervall festlegen. Der Zeitplan bestimmt, wie häufig die Zieldatensätze mit Änderungen an den Quelldatensätzen aktualisiert werden. Der Zeitplan bestimmt die Aktualisierungshäufigkeit, während der Datensatztyp die Aktualisierungsmethode bestimmt. Wenn die Quelldatensätze CDC unterstützen, werden nur die Änderungen an den Quelldaten repliziert und auf die entsprechenden Zieltabellen angewendet. Wenn die Quelldatensätze CDC nicht unterstützen (z. B. Ansichten), werden die Änderungen angewendet, indem alle Quelldaten erneut in die entsprechenden Zieltabellen geladen werden. Wenn einige der Quelldatensätze CDC unterstützen und andere nicht, werden zwei getrennte Unteraufgaben erstellt (wobei davon ausgegangen wird, dass die Replikationsoptionen Änderungen anwenden oder Änderungen speichern ausgewählt sind): eine zum erneuten Laden der Datensätze, die CDC nicht unterstützen, und eine zum Erfassen der Änderungen für Datensätze, die CDC unterstützen. In diesem Fall wird zum Sicherstellen der Dateneinheitlichkeit dringend empfohlen, den gleichen Zeitplan für beide Unteraufgaben zu verwenden.
Weitere Informationen zu Mindestplanintervallen entsprechend dem Datenquellentyp und der Abonnementstufe finden Sie unter Zulässige Mindestintervalle für die Planung.
So ändern Sie den Zeitplan:
Öffnen Sie Ihr Projekt und führen Sie einen der folgenden Schritte aus:
- Klicken Sie in der Aufgabenansicht für eine Replikationsaufgabe auf und wählen Sie Planung aus.
- Klicken Sie in der Pipeline-Ansicht für eine Replikationsaufgabe auf und wählen Sie Planung aus.
- Öffnen Sie die Replikationsaufgabe und klicken Sie auf die Symbolleistenschaltfläche Planung.
- Ändern Sie die Planungseinstellungen nach Bedarf und klicken Sie auf OK.