Zu Hauptinhalt springen Zu ergänzendem Inhalt springen

Upgraden und Deinstallieren von Data Movement Gateway

In diesem Thema wird erläutert, wie Sie Ihre Data Movement Gateway-Installation upgraden oder deinstallieren. Daneben wird eine Tabelle bereitgestellt, in der die in jeder Data Movement Gateway-Version eingeführten Änderungen aufgelistet werden.

Das Upgrade-Verfahren

Um Ihre aktuelle Version zu prüfen, gehen Sie zu Verwaltung > Daten-Gateways und prüfen Sie die Spalte Version für Ihr Data Movement Gateway.

Wenn eine neue Version verfügbar ist, wird ein ! an die Versionsnummer angehängt. Sie können den Mauszeiger über das halten, um weitere Informationen zu erhalten.

InformationshinweisVersionen werden manchmal als Patches veröffentlicht. Das ! wird nur angezeigt, wenn eine neue Standardversion verfügbar ist (im Gegensatz zu einer Patch-Version). Um herauszufinden, ob es sich bei einer Version um eine Patch-Version oder eine Standardversion handelt, sehen Sie sich die Spalte Typ in der Tabelle Data Movement Gateway Versionsverlauf unten an.

Wenn die installierte Gateway-Version nicht unterstützt wird, ist Status Deaktiviert, und es ist ein Upgrade erforderlich, um das Gateway zu aktivieren.

Sobald eine neue Version der RPM-Datei von Data Movement Gateway verfügbar wird, sollten Sie sie von Verwaltung herunterladen und ein Upgrade der bestehenden Installation durchführen.

Gehen Sie wie folgt vor:

  1. Laden Sie die neue Version herunter, indem Sie im Gateway auf und dann auf Upgrade klicken.

    Bestätigen Sie die Kundenvereinbarung und laden Sie das RPM herunter.

  2. Öffnen Sie eine Shell-Eingabeaufforderung und ändern Sie das Arbeitsverzeichnis in das Verzeichnis, das die RPM-Datei enthält.
  3. Führen Sie den folgenden Befehl aus:

    Syntax:

    rpm -U <rpm name>

    Beispiel:

    sudo rpm -U qlik-data-gateway-data-movement.rpm

  4. Starten Sie den Data Movement Gateway-Dienst:

    sudo systemctl start repagent

  5. Bestätigen Sie optional, dass der Dienst gestartet wurde:

    sudo systemctl status repagent

    Der Status lautet wie folgt:

    Active: active (running) since <timestamp> ago

Data Movement Gateway – Versionsverlauf

Version

Typ

Herausgabedatum

Wichtige Änderungen

Datum des Supportendes

2024.5.35

Patch

10. Dezember 2024

Dieser Patch behebt die folgenden Probleme:

  • Während einer Speicheraufgabe wurde der Datentyp NVARCHAR(3500) fälschlicherweise in VARCHAR(10500) statt in VARCHAR(8000) (dem maximal zulässigen Wert) konvertiert, was zu einem Fehler führte.

  • Wenn die Quelltabelle einen GRAPHIC-Datentyp mit der Codepage 941 (Japanisch) enthalten hätte, wäre der folgende Fehler aufgetreten (Auszug):

    Unexpected CCSID '941' in column 'PNTNM'

Bestimmt, wann die nächste Hauptversion herausgegeben wird.

2024.5.32

Patch

26. November 2024

Nach der Aktualisierung des Benutzernamens und des Kennworts im Quellkonnektor von Workday Reports und dem anschließenden Neuladen der Aufgabe trat die Fehlermeldung „Ungültiger Benutzername oder Kennwort“ auf, obwohl die Anmeldedaten korrekt waren. Dieses Problem ist nun behoben.

Bestimmt, wann die nächste Hauptversion herausgegeben wird.
2024.5.31

Patch

19. November 2024

Dieser Patch behebt die folgenden Probleme:

Die Version Oracle Java Standard Edition 17.0.8, die mit Data Movement Gateway ausgeliefert wird, weist mehrere bekannte Schwachstellen auf. Mit diesem Patch wird 17.0.8 durch 17.0.12 ersetzt, was die Probleme behebt.

Während CDC wurden bei jeder Änderung mehrere INSERT-Vorgänge in die zugehörige Tabelle „_ct“ eingefügt (statt nur eines). Dies erhöhte die Anzahl der Datensätze in der Tabelle „_ct“ erheblich.

Bestimmt, wann die nächste Hauptversion herausgegeben wird.
2024.5.28

Standard

12. November 2024 Stellt Funktionen bereit, die für die in Kürze erscheinende Funktion „Schemaentwicklung“ erforderlich sind. Bestimmt, wann die nächste Hauptversion herausgegeben wird.
2024.5.27

Patch

5. November 2024

Dieser Patch behebt die folgenden Probleme:

Am 14. August 2024 gab Snowflake einen Sicherheitshinweis zu Snowflake JDBC-Treibern >= 3.2.6 & <= 3.19.1 heraus, von denen einige mit früheren Versionen von Data Movement Gateway verwendet wurden. Die Schwachstelle wurde in Snowflake JDBC Driver 3.20 gepatcht, der Version, die jetzt mit dem Treiberinstallationsprogramm installiert wird. Bestehende Kunden sollten ihren Treiber so schnell wie möglich aktualisieren. Folgen Sie dazu dem Verfahren zum Aktualisieren des Treibers, das unter Treibereinrichtung beschrieben wird.

  • Bei der Verwendung des Wiederherstellungsereignisses 11.22 kam es bei der Verarbeitung mehrerer INSERTs auf einer komprimierten Seite, die vor den INSERTs nicht komprimiert war, zu fehlenden INSERTs.
  • In seltenen Fällen führte eine fehlerhafte Analyse von DELETE-Ereignissen im Wiederherstellungsprotokoll-Datensatz zu einer Warnung, die besagte, dass das DELETE-Ereignis im Wiederherstellungsprotokoll eine unbekannte Struktur enthält, gefolgt von verschiedenen Problemen.

Die Anweisungen in der YAML-Datei wurden aktualisiert, um die korrekte Version des SAP Java Connectors wiederzugeben.

Bei der Verwendung von Data Movement Gateway zum Verbinden mit dem Snowflake-Ziel über einen Proxy schlug die Verbindung mit dem folgenden Fehler fehl:

500 Failed to connect to Data Movement Gateway

Bestimmt, wann die nächste Hauptversion herausgegeben wird.
2024.5.22

Patch

15. Oktober 2024 Mit diesem Patch wird ein Problem in einer Aufgabe mit vollständigem Laden + CDC-Replikation behoben, bei dem das Feld Datenaufgabe wird aktualisiert auf für die CDC-Aufgabe den Zeitstempel des vollständigen Ladens anstelle des CDC-Zeitstempels anzeigte. Bestimmt, wann die nächste Hauptversion herausgegeben wird.
2024.5.16

Patch

8. Oktober 2024
    • Wenn das Wiederherstellen-Ereignis 11.22 verwendet wurde, kam es manchmal in mehreren INSERT-Vorgängen zu fehlenden INSERTs.
    • Nach dem Upgrade von Oracle 19g auf den Patch Juli 2024 wurden UPDATE-Vorgänge manchmal nicht erfasst, und es wurde die folgende Warnung angezeigt:

      A compressed row cannot be parsed

  • Wenn die Aufgabeneinstellungen für die Erstellung des Kontrolltabellenschemas konfiguriert waren, schlug die Aufgabe mit folgendem Fehler fehl:

    Failed to delete directory

  • Wenn eine Aufgabe für regelmäßige Ausführung geplant war, schlug sie manchmal mit folgendem Fehler fehl:

    The task stopped abnormally

  • Umwandlungs- und Speicheraufgaben blieben manchmal übermäßig lange in der Warteschlange hängen.

  • Aufgaben schlugen fehl, wenn das Funktions-Flag use_manipulation_pk_for_apply mit der Replikation von Speicheränderungen verwendet wurde.

  • Die S3-Zeitüberschreitung wurde auf 6 Stunden verlängert, um Probleme zu vermeiden, die sich aus längeren Zeitüberschreitungen ergeben, z. B. Verlust des Tokens zum Herunterladen der Dateien.

Bestimmt, wann die nächste Hauptversion herausgegeben wird.
2024.5.14

Standard

10. September 2024
  • Schlüssel/Paar bietet eine robustere Methode zur Authentifizierung als Benutzer/Passwort für die Verbindung zu Snowflake mit Ihren Servicekonten. Dieser Ansatz wird für Arbeitslasten wie das Laden von Daten (Replikations- oder Bereitstellungsaufgaben) und Umwandlungen empfohlen.

  • In früheren Versionen schlug das Aktualisieren der Metadaten eines vorhandenen oder neu hinzugefügten Datensatzes manchmal mit einem Fehler fehl. Diese Erweiterung stellt sicher, dass Metadaten ohne Probleme aus mehreren Tabellen parallel abgerufen werden können.

  • Wenn eine Quelltabelle eine Spalte mit einem DECIMAL-Datentyp enthielt – zum Beispiel DECIMAL (38, 20) –, schlug die Vorbereitung der Speicheraufgabe in Google BigQuery mit folgendem Fehler fehl (Auszug):

    Column <n> in <table name> has incompatible types: STRING, BIGNUMERIC at [93:1]

    Das Problem wurde gelöst, indem der Quelldatentyp DECIMAL in Google BigQuery DECIMAL zugeordnet wurde.

  • Nach dem Ändern einer bestehenden Schemaregel in einer Datenaufgabe trat folgender Fehler auf:

    QRI SQL error not implemented

  • Bei der Vorbereitung einer Bereitstellungsaufgabe, bei der eine Verbindung mit einer SAP-Anwendungsquelle hergestellt wurde, wurde die Aufgabe zwar erfolgreich abgeschlossen, aber in der Protokolldatei repsrv.log wurde der folgende Fehler gemeldet:

    Invalid object name 'hk1./QTQVC/QRI'

Bestimmt, wann die nächste Hauptversion herausgegeben wird.
2024.5.7

Standard

6. August  2024
  • Bisher wurden alle Tabellen bei einer Metadatenänderung verworfen und neu erstellt, selbst wenn die Metadatenänderung nicht alle Tabellen betraf. Jetzt werden nur die geänderten Tabellen verworfen und neu erstellt, wodurch die Leistung verbessert wird.

  • Tabellen, die in der Quelldatenbank während der Replikationsdatenaufgabe erstellt wurden und mit dem Einschließen-Muster übereinstimmen, werden jetzt automatisch während der Erfassung von Änderungsdaten (CDC) aufgenommen.

    • Bisher hat Qlik Talend Data Integration beim Auslesen mehrerer Transaktionen aus Microsoft SQL Server (MS-CDC) die Transaktions-ID und den Zeitstempel nur der ersten Transaktion beibehalten. Dies hat auf dem Ziel so ausgesehen, als ob die Datensätze Teil einer einzigen Transaktion seien. Jetzt behält Qlik Talend Data Integration die Original-Transaktions-ID und den Original-Zeitstempel für jeden einzelnen Datensatz bei. Davon profitieren Kunden, die die Kopfzeilenspalten für Transaktions-ID und Zeitstempel in Änderungstabellen nutzen möchten.

    • Bisher wurden die Bytes in der Transaktions-ID in umgekehrter Reihenfolge codiert. Ab dieser Version werden die Bytes in der richtigen Reihenfolge codiert. Informationskunden, die lieber die bisherige Codierung beibehalten möchten, können dies mithilfe von internen Parametern tun. Um Details zu erhalten, wenden Sie sich an den Qlik-Support.

  • Qlik Talend Data Integration unterstützt jetzt das Caching der austauschbaren Authentifizierung durch SHA-2 (caching_sha2_password) bei der Arbeit mit MySQL-Quellen oder -Zielen, entweder lokal oder in der Cloud. In früheren Versionen wurde nur die native austauschbare Authentifizierung (mysql_native_password) unterstützt.

  • BYTES- und BLOB-Datentypen werden für Amazon Redshift nun VARBYTE statt VARCHAR zugeordnet.

    • PostgreSQL 16.x

    • MySQL 8.1
    • IBM DB2 für z/OS
    • PostgreSQL 16.x
    • MySQL 8.1
    • Databricks 14.3 LTS
    • SQL Server ODBC-Treiber 18.3

Die Unterstützung wurde für die folgenden Datenquellenversionen eingestellt:

  • Alle Oracle-Versionen und -Treiber vor Oracle 19.x
  • Microsoft SQL Server 2014
  • MySQL 5.7
  • PostgreSQL 11
  • IBM DB2 für LUW 10.5
  • IBM DB2 für z/OS: z/OS 2.3
  • Wenn eine erfasste Cluster-Dokumentänderung alle Zeile aller ihrer erfassten Tabellen gelöscht hat, wurden Meldungen über eine fehlende LÖSCHEN-Vorgänge und unnötige Assertions angezeigt.

  • Die Microsoft Authentication Library für Java (MSAL4J) und Bouncy Castle wurden auf Versionen ohne bekannte Schwachstellen aktualisiert.

    • Die Aufgabe ist manchmal fehlgeschlagen, wenn der interne Speicher von Snowflake verwendet wurde.
    • Die Aufgabe ist fehlgeschlagen, wenn der Zielschemaname auf Japanisch Katakana geschrieben war.
  • Wenn eine Aufgabe mit einer Oracle-Quelle fortgeführt wurde, hat die Aufgabe weiterhin auf ein gelöschtes archiviertes Wiederholungsprotokoll gewartet anstatt einen Abbruch mit einer entsprechenden Fehlermeldung durchzuführen.

Bestimmt, wann die nächste Hauptversion herausgegeben wird.
2023.11.23

Standard

26. Juni 2024
  • Ab dieser Version wird das Snowflake-Metadatenschema (für bereitgestellte Dateien) erstellt, wenn es nicht vorhanden ist.

  • Nachdem eine Änderung an einer Regel Datensatz umbenennen vorgenommen wurde (die den Tabellennamen mit dem Schemanamen zusammenfasste) und eine Ansicht zur Bereitstellungsaufgabe hinzugefügt wurde, schlug die Vorbereiten-Aufgabe mit dem folgenden Fehler fehl:

    QRI SQL error not implemented.

  • Die Komponente java_file_factory wurde auf eine Version ohne bekannte Schwachstellen aktualisiert.
  • org.postgresql:postgresql wurde auf eine Version ohne bekannte Schwachstellen aktualisiert.
  • Beim Verschieben von Daten an SQL Server schlug der Vorbereiten-Vorgang fehl, wenn Indexnamen länger als 128 Zeichen waren. Das Problem wurde behoben, indem die Logik geändert wurde, um kürzere Indexnamen zu erstellen.
  • Beim Verschieben von Daten von SQL Server löste ein fehlender Spaltenname in den Tabellendefinitionen eine Benachrichtigungs-Endlosschleife in der Datei repsrv.log mit folgender Meldung aus:

    mssql_resolve_sqlserver_table_column_attributes(...) failed to find column

6. Februar 2025

2023.11.11

Standard

21. Mai 2024
  • Unterstützung für das gleichzeitige Abrufen von Metadaten aus mehreren Tabellen wurde hinzugefügt.

  • Die Überwachungsinformationen für Bereitstellungs- und Replikationsaufgaben werden jetzt alle 10 Sekunden (statt alle 60 Sekunden) aktualisiert, was genauere Informationen zum aktuellen Status liefert.

  • Japan wird jetzt als Qlik Cloud Mandantenregion unterstützt.

  • Das Wiederholungsintervall zwischen dem Daten-Gateway und Qlik Cloud wurde fortlaufend erhöht, aber nie zurückgesetzt (es sei denn, der Dienst wurde neu gestartet).
  • Beim Verschieben von Daten von einer SaaS-Anwendungsquelle trat bei Tabellen während des Ladevorgangs manchmal ein Fehlerstatus auf.
  • Aufgaben mit einer MySQL-Quelle schlugen manchmal während CDC mit folgendem Fehler fehl:

    Read next binary log event failed; mariadb_rpl_fetch error 0 Error reading binary log.

  • Zuvor wurden CDC-Audit-Ereignisse nur für Bereitstellungsaufgaben protokolliert. Jetzt werden sie auch für Replikationsaufgaben protokolliert.
  • Beim Verschieben von Daten von einem SQL-Server (MS-CDC) dauerte das Starten für Aufgaben mit zahlreichen Tabellen manchmal mehrere Stunden.
  • Wenn die Quelltabelle CLOB-Spalten enthielt und der Wert für „LOB-Größe begrenzen“ 10240 überschritt, schlug die Replikation in Snowflake mit dem folgenden Fehler fehl:

    Invalid character length: 0

Bestimmt, wann die nächste Hauptversion herausgegeben wird.
2023.11.4

Standard

12. März 2024

Kunden können jetzt Data Movement Gateway unter Red Hat 9.x oder jeder anderen entsprechenden und kompatiblen Linux-Distribution installieren.

Einrichten von Data Movement Gateway

Die Befehle für das Anhalten, Starten und Prüfen des Status des Data Movement Gateway-Diensts haben sich geändert.

Data Movement Gateway-Dienstbefehle

  • Der Datentyp BOOLEAN, der in Amazon Redshift VARCHAR(1) zugeordnet war, wird jetzt BOOLEAN zugeordnet.
  • Die Datentypen BYTES und BLOB, die in Amazon Redshift VARCHAR(1) zugeordnet waren, werden jetzt VARBINARY (Länge) zugeordnet.

In diesem Abschnitt werden die neu unterstützten Datenbanken, Datenbankversionen und Treiberversionen aufgelistet.

  • Neu unterstützte Datenquellenversionen und -editionen

    Die folgenden Datenquellenversionen werden jetzt unterstützt:

    • Azure Database for MySQL – Flexibler Server (unterstützt über den MySQL-Quellkonnektor)
    • MariaDB 10.4 – 10.11 (zuvor 10.4 und 10.5)
  • Neu unterstützte Zieldatenplattformen und-editionen

    Die folgenden Datenzielversionen werden jetzt unterstützt:

    • Azure Database for MySQL – Flexibler Server (unterstützt über den MySQL-Zielkonnektor)
    • Databricks: Databricks 13.3 LTS und Serverless SQL Warehouse
  • Neu unterstützte SAP HANA-Treiberversion

    Kunden mit einer SAP HANA-Quelle, die Data Movement Gateway unter Red Hat Linux 9.x installieren möchten, müssen die SAP HANA ODBC 64-Bit-Treiberversion 2.0.19 oder höher installieren.

Dieser Abschnitt enthält Informationen zu Datenbankversionen, deren Unterstützung beendet wurde.

  • Die Unterstützung für die folgenden Datenquellenversionen wurde eingestellt:

    • Oracle 11.x
    • SAP HANA 1.0
  • Wenn Data Movement Gateway ohne Angabe eines Serverkennworts installiert wurde, konnten der Mandant und Proxy-URLs nicht in einem Befehl konfiguriert werden.
  • Beim Verschieben von Daten aus einer Salesforce-Datenquelle (SaaS-Anwendung) wurden zahlreiche redundante Warnungen gedruckt, was die Datenladeleistung beeinträchtigte.
  • Wenn beim Abrufen von Änderungen für eine SaaS-Anwendungsdatenquelle ein Fehler beim Abrufen der Änderungen für eine der Tabellen auftrat, wurde diese Tabelle ausgesetzt und aus der Pipeline entfernt. Wenn jetzt ein Fehler auftritt, versucht die Aufgabe bis zu drei Mal, die Änderungen abzurufen, bevor die Tabelle ausgesetzt wird.
Bestimmt, wann die nächste Hauptversion herausgegeben wird.
2023.5.16

Standard

9. Januar 2024

Wir erweitern fortlaufend die unterstützen Ziele für das Replikationsprojekt in Qlik Cloud Data Integration. Neben Amazon S3 können Sie jetzt Azure Data Lake Storage (ADLS) und Google Cloud Storage (GCS) für die Data Lake-Zustellung in den Dateiformaten Parquet, JSON oder CSV auswählen.

  • Die Verbindung zu IBM DB2 for LUW schlug fehl, wenn die Größe der für die Verbindung benötigten Dateien (z. B. das SSL-Clientzertifikat und die Schlüsselspeicherdatei) größer als 4 KB waren.

  • Die DB2-Treiberinstallation schlug fehl, wenn das Treiberinstallations-Dienstprogramm verwendet wurde.

7. September 2024

2023.5.15

Standard

12. Dezember 2023

Microsoft Fabric wird der immer länger werdenden Liste der Data Warehouses hinzugefügt, die als Ziele in Daten-Pipeline-Projekten verwendet werden können.

Die Snowflake-Treiberversion im Treiberinstallations-Dienstprogramm wurde aktualisiert.

7. September 2024

2023.5.10

Standard

31. Oktober 2023

Eine private Verbindung kann verwendet werden, um zu gewährleisten, dass Ihr Datenverkehr sicher und konform ist. Sie vereinfacht sowohl das Netzwerkmanagement als auch die Sicherheit Ihrer VPC (Virtual Private Cloud), ohne geöffnete eingehende Firewall-Ports, Proxy-Geräte oder Routingtabellen zu benötigen. Qlik Cloud Data Integration unterstützt bereits private Verbindungen zu Daten-Pipeline-Zielen von Snowflake, Microsoft SQL Server und Amazon S3. Ab dieser Version können Kunden zusätzlich private Verbindungen nutzen, wenn sie Daten zu Databricks, Microsoft Azure Synapse, Google BigQuery und Amazon Redshift verschieben.

  • Alle PostgreSQL-basierten Datenquellen – Unterstützung für Mehrbereichsdatentypen: Die folgenden Mehrbereichsdatentypen werden jetzt für alle PostgreSQL-basierten Datenquellen (lokal und Cloud) unterstützt.

    • INT4MULTIRANGE
    • INT8MULTIRANGE
    • NUMMULTIRANGE
    • TSMULTIRANGE
  • AWS Aurora Cloud for PostgreSQL-Datenquelle – Unterstützung für Nicht-Superuser-Rolle: Der Benutzer, der im PostgreSQL-Konnektor angegeben ist, benötigt nicht mehr die Superuser-Rolle, um Daten von einer AWS Aurora Cloud for PostgreSQL-Datenquelle zu verschieben. Das ist besonders nützlich für Organisationen mit Unternehmenssicherheitsrichtlinien, die keine Zuweisung von Superuser-Zugriff zu nicht berechtigten Benutzern zulassen.

Kunden, die Daten aus einer Microsoft Azure SQL (MS-CDC)-Datenquelle verschieben, können jetzt eine Georeplikationsdatenbank verwenden.

Qlik Cloud Data Integration unterstützt jetzt das Lesen von Daten aus verschlüsselten Oracle-Tablespaces und verschlüsselten Spalten während CDC.

Qlik Cloud Data Integration unterstützt jetzt Mandanten in den Regionen DE und UK.

Dieser Abschnitt listet neue unterstützte Datenbank- und Treiberversionen auf.

  • Neue unterstützte Datenquellenversionen. Die folgenden Datenquellenversionen werden jetzt unterstützt:

    • Microsoft SQL Server 2022
    • Oracle 21c
    • PostgreSQL 15.x
    • DB2 13.1 (bei Arbeit mit IBM DB2 for z/OS)
    • IBM DB2 for iSeries 7.5
  • Neue unterstützte Zieldatenplattformversionen. Die folgenden Datenzielversionen werden jetzt unterstützt:

    • Databricks (Cloud Storage): Databricks 12.2 LTS und Databricks SQL Serverless
  • Treiberversionen. Die folgenden ODBC-Treiberversionen werden jetzt unterstützt:

    • IBM Data Server Client 11.5.8 for IBM DB2 for z/OZ und IBM DB2 for LUW
    • Simba ODBC-Treiber 3.0.0.1001 für Google Cloud BigQuery
    • MySQL ODBC Unicode-Treiber 64-bit 8.0.32

Kunden, die Daten zu oder von Microsoft SQL Server verschieben, müssen ein Upgrade ihrer SQL Server ODBC-Treiberversion auf 18.x oder höher durchführen. Beachten Sie, dass eine weitere Nutzung des SQL Server ODBC-Treibers 17.x möglicherweise zu Datenfehlern führt. Ein Upgrade des Treibers kann entweder mithilfe des Dienstprogramms zur Treiberinstallation oder manuell erfolgen. Anweisungen finden Sie unter Treibereinrichtung.

Dieser Abschnitt enthält Informationen zu Datenbankversionen, deren Unterstützung beendet wurde.

  • Ende der Unterstützung für Datenquellenversionen. Die Unterstützung für die folgenden Datenquellenversionen wurde eingestellt:

    • PostgreSQL 10
    • MySQL 5.6
    • MariaDB 10.3
  • Ende der Unterstützung für Zieldatenplattformversionen. Die Unterstützung für die folgenden Datenzielversionen wurde eingestellt:

    • Databricks 9.1 LTS

7. September 2024

2022.11.74

Standard

15. August 2023

Wir verfolgen einen Ansatz, der die Cloud bevorzugt und rasche Innovation und Umsetzung ermöglicht. Das bedeutet aber nicht, dass wir nur in der Cloud arbeiten. Im Rahmen unserer fortlaufenden Verpflichtung zur langfristigen Wertsteigerung für unsere Kunden freuen wir uns, die Herausgabe eines neuen Anwendungsfalls für Replikation beim Erstellen von Datenprojekten ankündigen zu können. Der neue Replikations-Anwendungsfall wird zusätzlich zu der Möglichkeit angeboten, Daten-Pipelines für all Ihre Datenintegrationsanforderungen wie beispielsweise einer Modernisierung des Data Warehouse bereitzustellen.

Das Replikationsprojekt unterstützt die Datenreplikation in Echtzeit aus unterstützten Datenquellen in ein unterstütztes Ziel.

Ab dieser neuesten Version ist das erste Ziel, das die Datenreplikation in Echtzeit unterstützt, Microsoft SQL Server. Neben der lokalen Unterstützung von Microsoft SQL Server werden auch die folgenden Cloud-Anbieter unterstützt:

  • Lokal
  • Amazon RDS
  • Google Cloud
  • Microsoft Azure (Microsoft Azure Managed Instance und Microsoft Azure Database)

Kunden, die Daten zu Microsoft Azure Synapse Analytics verschieben, müssen ein Upgrade ihrer SQL Server ODBC-Treiberversion auf 18.x oder höher durchführen. Beachten Sie, dass eine weitere Nutzung des SQL Server ODBC-Treibers 17.x möglicherweise zu Datenfehlern führt. Ein Upgrade des Treibers kann entweder mithilfe des Dienstprogramms zur Treiberinstallation oder manuell erfolgen. Anweisungen finden Sie unter Treibereinrichtung.

Es wurde eine neue Option Daten von Quelle laden eingeführt, die es Kunden ermöglicht, die Daten während des vollständigen Ladens direkt in der Quelle statt in den zwischengespeicherten Daten zu lesen.

Weitere Informationen zu dieser Option und Anwendungsfälle finden Sie unter Bereitstellungseinstellungen.

Data Movement Gateway 2022.11.74 enthält aktualisierte ZS-Zertifikate, die für die Authentifizierung des Qlik Cloud-Mandanten erforderlich sind. Die aktualisierten ZS-Zertifikate bieten auch Unterstützung für die Regionen Irland und Frankfurt. Daher müssen Kunden mit Qlik Cloud-Mandanten in Irland oder Frankfurt, die Qlik Cloud Data Integration nutzen möchten, in Upgrade auf diese Version durchführen.

Aufgabenbereitstellungsdaten aus einer Oracle-Quelle schlugen manchmal fehl, wenn eine breite Tabelle ungenutzte oder nicht unterstützte Spalten oder nicht replizierte LOB-Spalten enthielt.

30. April 2024

2022.11.70

Standard

28. Juni 2023

In früheren Versionen mussten Kunden den Befehl „source arep_login.sh“ ausführen, wenn sie SAP-Clients installierten. Ab dieser Version ist die Ausführung dieses Befehls nicht mehr erforderlich.

Diese Version enthält aktualisierte ZS-Zertifikate, die für die Authentifizierung des Qlik Cloud-Mandanten erforderlich sind.

  • Wenn eine Replikationsaufgabe in Data Movement Gateway fehlgeschlagen war und automatisch wiederhergestellt wurde, wurde der Wiederherstellungsstatus nicht an das Bereitstellungsdatenobjekt in Qlik Cloud gemeldet.

  • End-to-End-Verschlüsselung für Data Movement Gateway wurde standardmäßig nicht aktiviert und von Laufzeit-Flags gesteuert.
15. September 2023

2022.11.63

Standard

2. Mai 2023

In dieser Version wird ein Treiberinstallations-Dienstprogramm eingeführt. Damit entfällt das manuelle Installieren und Konfigurieren von Treibern. Das neue Dienstprogramm verkürzt den Installationsprozess, und auch das Risiko von Benutzerfehlern wird deutlich gesenkt. Bei Ausführung des Dienstprogramms wird der erforderliche Treiber falls möglich automatisch heruntergeladen und installiert. Wenn der Treiber nicht automatisch heruntergeladen werden kann (z. B. im Fall von DB2-Treibern, die eine Anmeldung erfordern), laden Sie den Treiber einfach herunter, kopieren Sie ihn in einen dedizierten Ordner auf dem Data Movement-Gateway-Computer und führen Sie das Dienstprogramm aus.

Ein Beispiel für die Verwendung des Treiberinstallations-Dienstprogramms beim Installieren eines PostgreSQL-Treibers finden Sie unter Voraussetzungen

Der Snowflake-Konnektor unterstützt jetzt Emoj-Zeichen mit 4 Byte.

Der PostgreSQL-Konnektor kann jetzt Daten von Azure Database for PostgreSQL - Flexibler Server bewegen.

Der PostgreSQL-Konnektor kann jetzt Daten von Cloud SQL for PostgreSQL bewegen.

In dieser Version wird die Unterstützung für die folgenden neuen Datenquellenversionen eingeführt:

  • PostgreSQL 14
  • DB2 (für IBM DB2 for z/OS) 12.1
  • IBM DB2 for z/OS 2.5

Databricks 11.3 LTS

Die folgenden Datenquellenversionen werden nicht mehr unterstützt:

  • DB2 (für IBM DB2 for z/OS) 11
  • PostgreSQL 9.6
  • Microsoft SQL Server 2012
  • MariaDB 10.2

In dieser Version werden die folgenden Probleme behoben:

  • Oracle-Datenquelle: Beim Anhalten und Wiederaufnehmen einer Aufgabe schlug die Aufgabe manchmal mit dem Fehler „Failed to set stream position on context“ fehl.
  • SAP-Anwendungsquelle: Änderungen wurden während der Bereitstellungsaufgabe nicht erfasst.

15. September 2023

2022.5.13

Standard

19. Oktober 2022

Erste Version

2. August 2023

Deinstallieren von Data Movement Gateway

Führen Sie den folgenden Befehl aus, um Data Movement Gateway zu deinstallieren:

rpm -e <installation package name>

Beispiel:

rpm -e qlik-data-gateway-data-movement-2023.11-1.x86_64

Wenn Sie den Paketnamen nicht kennen, führen Sie folgenden Befehl aus:

rpm -qa | grep qlik

WarnhinweisWenn Sie Data Movement Gateway deinstallieren, schlagen alle Aufgaben fehl, die das Daten-Gateway aktuell verwenden.

Hat diese Seite Ihnen geholfen?

Wenn Sie Probleme mit dieser Seite oder ihren Inhalten feststellen – einen Tippfehler, einen fehlenden Schritt oder einen technischen Fehler –, teilen Sie uns bitte mit, wie wir uns verbessern können!