Ga naar hoofdinhoud Ga naar aanvullende inhoud

Data Movement gateway upgraden en verwijderen

In dit onderwerp wordt uitgelegd hoe u de installatie van de Data Movement gateway kunt upgraden of verwijderen. U vindt ook een tabel met de wijzigingen die in elke versie van de Data Movement gateway zijn geïntroduceerd.

Upgradeprocedure

Om uw huidige versie te verifiëren, gaat u naar de weergave Beheer > Gegevensgateways en controleert u de kolom Versie die overeenkomt met uw Data Movement gateway.

Als er een nieuwe versie beschikbaar is, wordt ! toegevoegd aan het versienummer. U kunt met de muiscursor op Informatie gaan staan voor meer informatie.

InformatieVersies worden soms als patches uitgebracht. De ! wordt alleen getoond als er een nieuwe standaardrelease beschikbaar is (in tegenstelling tot een patch-release). Om erachter te komen of een versie een patchrelease of een standaardrelease is, raadpleegt u de kolom Type in de onderstaande tabel Data Movement gateway met versiegeschiedenis.

Als de geïnstalleerde gatewayversie niet wordt ondersteund, staat Status op Gedeactiveerd en is een upgrade vereist om de gateway te activeren.

Wanneer een nieuwe versie van de Data Movement gateway rpm beschikbaar wordt, moet u deze downloaden via Beheer en de bestaande installatie upgraden.

U doet dit als volgt:

  1. Klik op Meer op de gateway en vervolgens op Bijwerken om de nieuwe versie te downloaden.

    Ga akkoord met de klantovereenkomst en download de RPM.

  2. Open een shell-prompt en wijzig de werkdirectory in de directory die het RPM-bestand bevat.
  3. Voer de volgende opdracht uit:

    Syntaxis:

    rpm -U <rpm name>

    Voorbeeld:

    sudo rpm -U qlik-data-gateway-data-movement.rpm

  4. Start de Data Movement gateway-service:

    sudo systemctl start repagent

  5. Bevestig eventueel dat de service is gestart:

    sudo systemctl status repagent

    De status zou als volgt moeten zijn:

    Active: active (running) since <timestamp> ago

Data Movement gateway versiegeschiedenis

Versie

Type

Releasedatum

Aanzienlijke wijzigingen

Einddatum voor ondersteuning

2024.11.70 Standard 12 augustus 2025
  • Een nieuwe instelling Aantal nieuwe pogingen voordat een tabelfout wordt geretourneerd is toegevoegd aan de instellingen voor tabelfoutafhandeling voor replicatie- en tussenopslagstaken. Voorheen, wanneer een tabelfout optrad, werd de tabel onderbroken of werd de taak gestopt (volgens de geselecteerde foutafhandelingsactie). Dit resulteerde er soms in dat tabellen werden onderbroken tijdens het onderhoudsvenster van de SaaS-applicatie. Met deze nieuwe optie is het nu mogelijk om te bepalen hoe vaak de tabel opnieuw moet worden geprobeerd voordat het beleid voor tabelfoutafhandeling wordt geactiveerd. Deze optie is vooral handig als uw SaaS-applicatie periodiek onderhoud ondergaat, aangezien u het standaard aantal nieuwe pogingen (3) kunt overschrijven, zodat het onderhoud kan worden voltooid zonder het beleid voor tabelfoutafhandeling te activeren.

    Tabelfoutafhandeling

    InformatieDeze optie wordt alleen weergegeven voor taken die zijn geconfigureerd met een Lite- of Standaard SaaS-applicatieconnector.
  • Bij het bekijken van een SQL-transformatie zullen de resultaten nu de kolomgegevenstypen bevatten.

    Voorbeeld van gegevens bekijken

  • Een nieuwe optie Compatibele JSON-bronkolommen toewijzen aan JSON-kolommen op het doel is toegevoegd aan het tabblad Metadata van de taakinstellingen. Deze optie is standaard geselecteerd bij nieuwe taken als de bron compatibele JSON-gegevenstypen bevat, die ook door het doel worden ondersteund. Voordat deze optie werd geïntroduceerd, werden JSON-kolommen echter toegewezen aan STRING op het doel. Daarom zal bij bestaande taken (dat wil zeggen, taken die zijn gemaakt vóór Data Movement gateway 2024.11.70) deze optie standaard zijn uitgeschakeld, aangezien alle downstream-processen - zoals transformaties - verwachten dat de doelgegevens in STRING-indeling zijn. U kunt de optie uitgeschakeld laten of u kunt de downstream-processen bewerken om compatibel te zijn met JSON-indeling en vervolgens deze optie inschakelen.

    Informatie

    Deze optie wordt alleen ondersteund bij taken die zijn geconfigureerd om een Preview SaaS-applicatieconnector te gebruiken.

    Metagegevens

Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht
2024.11.67 Standard 29 juli 2025
  • Er is een rollover- en opschoonbeleid geïmplementeerd voor de replicatielogbestanden op de gatewaymachine. Het rolloverbeleid voorkomt dat de logbestanden te groot worden (wat de prestaties en analyse beïnvloedt), terwijl het opschoonbeleid voorkomt dat ze zich opstapelen en te veel schijfruimte innemen.

  • Bij het herladen van een onderbroken tabel was de tabelstatus die in de monitor werd weergegeven soms onjuist.

  • Bij het voorbereiden van een tussenopslagtaak na het toevoegen van een dataset, trad er soms een time-out op in de fase van het catalogiseren van bedrijfsmiddelen. Dit zou ertoe leiden dat de voorbereidingsbewerking mislukt.

Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht
2024.11.65 Patch 22 juli 2025

Deze patch lost de volgende problemen op:

  • Bij het toevoegen van een nieuwe tabel aan een replicatietaak en klikken op Prepare, trad de volgende fout soms op:

    Prepare data task failed: Object reference not set to an instance of an object.

  • De volgende Data Movement gateway installatiebestanden zijn bijgewerkt naar versies zonder bekende kwetsbaarheden:

    • java

    • jetty-io-<version>.jar

    • jetty-http-<version>.jar

    • spring-expression-<version>.jar

    • spring-core-<version>.jar

    • spring-context-<version>.jar

Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht
2024.11.61 Patch 15 juli 2025 Het installeren van ai-local-agent (nodig voor vectordatabase en LLM-verbinding) op een machine met Python 3.12 mislukte. Deze patch lost het problemeen op: Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht
2024.11.59 Patch 1 juli 2025

Deze patch lost de volgende problemen op:

  • Na het upgraden naar Data Movement gateway 2024.11.54, mislukte de verbinding met de database.

  • Het voorbereiden van de gegevenstaak mislukte wanneer de taak was geconfigureerd met een SaaS-applicatiebron en een Google BigQuery-doel.

  • Taken met Java-gebaseerde gegevensbronnen mislukten na het upgraden naar Data Movement gateway 2024.11.54.

  • Tijdens CDC, wanneer een STRING-kolom in een brontabel 65536 bytes overschreed, werden de gegevens afgekapt in de doel-STRING-kolom. De taak schakelde dan over naar de "één-voor-één" toepassingsmodus.

  • De java_file_factory.jar en arep-google-cloud.jar bestanden zijn geüpgraded naar versies zonder bekende kwetsbaarheden.

Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht
2024.11.54 Patch 17 juni 2025

Deze patch lost de volgende problemen op:

  • Tijdens volledige lading werden er voor de taak doeltabellen verwijdert en opnieuw aangemaakt, ook al was de taak geconfigureerd met Als de doeltabel al bestaat: negeren

  • Na het stoppen en voorbereiden van een bestaande replicatietaak met de replicatiemodus ingesteld op volledige lading en het toepassen van wijzigingen, nam het aantal verwerkte CDC-records toe, wat resulteerde in een onjuiste telling.

  • Wanneer een nieuwe gegevensverzameling aan een bestaande taak werd toegevoegd, mislukte de taak met de volgende foutmelding:

    Could not find a match between landing metadata and gateway task metadata for the following tables: <name>

  • Testverbinding met SAP en SQL-gebaseerde bronnen mislukt.

  • Na het upgraden van de gateway werden taken soms niet hervat zoals verwacht.

Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht
2024.11.45 Standard 20 mei 2025

Ondersteuning voor Snowpipe Streaming

Voorheen was Bulksgewijs laden de enige beschikbare methode voor het laden van gegevens in Snowflake. Klanten kunnen nu Bulksgewijs laden of Snowpipe Streaming gebruiken om hun gegevens in Snowflake te laden of te repliceren.

De voordelen van Snowpipe Streaming ten opzichte van Bulksgewijs laden zijn onder andere:

  • Minder duur: aangezien Snowpipe Streaming geen gebruik maakt van het Snowflake-warehouse, zouden de bedrijfskosten aanzienlijk lager moeten zijn, hoewel dit afhangt van uw specifieke gebruikssituatie.
  • Verminderde latentie: aangezien de gegevens rechtstreeks naar de doeltabellen worden gestreamd (in tegenstelling tot via fasering), zou de replicatie van de gegevensbron naar de doeltabellen sneller moeten zijn.

Opgeloste problemen

Deze patch lost de volgende problemen op:

  • Bij het bladeren naar databases met behulp van de Microsoft Fabric-connector, treedt de volgende fout op (uittreksel):

    Create connection failed'' with error 'java.lang.NoSuchMethodError

    Het probleem werd veroorzaakt door een incompatibiliteit met het 12.9.0-preview.jar JDBC-stuurprogramma, dat was geïnstalleerd met het installatiehulpprogramma. Het hulpprogramma is nu bijgewerkt om een compatibel stuurprogramma te installeren.

  • Na het upgraden van Data Movement gateway of het opnieuw opstarten van de Data Movement gateway-service, kon de Java-server (vereist voor Java-gebaseerde connectoren zoals SAP ODP) niet meer starten.

    • End-to-end-encryptie werd niet wederzijds afgedwongen voor de registratie-instructies van nettoladingen die klant-gehoste logboeken terugstuurt van het Qlik Cloud Administration-activiteitencentrum.

    • De SQLite-versie die wordt gebruikt door Data Movement gateway is geüpgraded vanwege een kwetsbaarheid met versie 3.42.0(CVE-2023-7104).

    • Het bestand com.h2database dat wordt gebruikt door Data Movement gateway is geüpgraded als gevolg van een kwetsbaarheid met versie h2-2.1.212(CVE-2022-45868).

Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht
2024.11.34 Patch 1 april 2025

Deze patch lost het volgende probleem op bij het verplaatsen van gegevens vanuit een IBM DB2 for iSeries-gegevensbron:

Bij gebruik van iSeries Access ODBC Driver 07.01.026 of later, mislukte de taak tijdens CDC met een foutmelding "Error parsing".

Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht
2024.11.30

Standaard

18 maart 2025

Klanten kunnen nu verbinding maken met het Databricks-doel door gebruik te maken van OAuth-verificatie, de methode die Databricks aanbeveelt voor accountverificatie. De verificatie met persoonlijk toegangstoken blijft voorlopig beschikbaar voor achterwaartse compatibiliteit, maar wordt als minder veilig beschouwd dan OAuth.

  • Wanneer een gegevensverzameling werd gedefinieerd met parallel laden en volledige lading vervolgens werd uitgeschakeld, voerde de taak nog steeds een volledige lading van die gegevensverzameling uit, zelfs wanneer deze werd hervat vanaf het tijdstempel.

Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht.

2024.11.24

Patch

11 maart 2025

Deze patch lost de volgende problemen op:

  • Het genereren van metagegevens mislukte bij tabellen met een punt in de naam (bijv. Deprec.Area).

  • Taken herstelden slechts één keer als ze tijdens een volledige lading mislukten vanwege een omgevingsprobleem. Nu zullen ze het aantal keren herstellen dat geconfigureerd is onder Instellingen > Foutafhandeling > Omgevingsfouten > Maximumaantal pogingen.

Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht.
2024.11.14 Standaard 25 februari 2025

Verbeteringen

PostgreSQL failover-certificering

Werken met een secundaire database na failover is gecertificeerd met de volgende gegevensbronnen (die allemaal toegankelijk zijn met de PostgreSQL-bronconnector):

  • Google Cloud SQL for PostgreSQL
  • Amazon RDS for PostgreSQL
  • PostgreSQL (on-premises)

Zie ook: Failover instellen

Prestatieverbetering van MySQL

In eerdere versies, wanneer u een MySQL-gebaseerd broneindpunt gebruikte in een taak die geconfigureerd was met beperkte LOB-grootte, gebruikte Data Movement gateway bron opzoeken om de LOB-kolommen te lezen. Nu zal Data Movement gateway de LOB-kolommen rechtstreeks uit binlog lezen, waardoor de prestaties verbeteren.

InformatieDeze verbetering is niet van toepassing op het JSON-gegevenstype.

Wijzigingen van de toewijzing van gegevenstypen

Toewijzingen naar LOB-kolommen zijn gewijzigd voor het Amazon Redshift- en Snowflake-doel.

  • BLOB wordt nu toegewezen aan VARBYTE(16777216)
  • NCLOB is nu toegewezen aan NVARCHAR(65535)
  • CLOB is nu toegewezen aan NVARCHAR(65535)
  • BLOB is nu toegewezen aan BINARY (8388608)
  • NCLOB is nu toegewezen aan NVARCHAR(16777216)
  • CLOB is nu toegewezen aan VARCHAR(16777216)

Nieuwe ondersteunde gegevenstypen

  • Ondersteunt nu het gegevenstype BOOLEAN (vanaf DB2 for LUW 11.5).

  • Ondersteunt nu het gegevenstype BIGNUMERIC.

Uitgebreide doelondersteuning voor de DDL geschiedenis-controletabel

In vorige versies van Data Movement gateway werd de DDL geschiedenis-controletabel alleen ondersteund met Databricks- en Microsoft Fabric-doelen. Deze versie biedt ondersteuning voor de volgende extra doelconnectoren:

  • Amazon Redshift
  • Amazon S3
  • Google-cloudopslag
  • Snowflake

Zie ook: DDL-geschiedenis

Ondersteuning voor het gebruik van een niet-superuser met Google Cloud SQL voor PostgreSQL

Vanaf deze versie is het mogelijk om een account zonder superuser op te geven bij het repliceren vanuit Google Cloud SQL for PostgreSQL.

Zie ook: Een account gebruiken zonder de rol van superuser

Nieuwe gecertificeerde platformen en stuurprogrammaversies

  • 15.4 LTS

  • 23ai

    Informatie
    • Oracle 23ai-bron en -doel zijn alleen gecertificeerd met Oracle Standard Edition.
    • Oracle 23ai-bron wordt alleen ondersteund met TDE-versleuteling.
  • Bij het verplaatsen van gegevens naar Databricks is nu Simba Spark ODBC Driver 2.8.2 of later vereist. Klanten moeten het hulpprogramma voor de installatie van het stuurprogramma uitvoeren of het stuurprogramma handmatig installeren.

    Zie ook: Setup stuurprogramma

Beëindigde ondersteuning

De volgende databaseversies worden niet meer ondersteund:

  • PostgreSQL 12.x
  • IBM DB2 for z/OS: z/OS 2.4
  • Databricks 9.1

Opgeloste problemen

  • Wanneer de replicatiemodus was ingesteld op Wijzigingen opslaan en de tabel een .INCLUDE kolom bevatte, kon de taak de __CT-tabel niet in het doel aanmaken.

  • De taak mislukte en de foutmelding "Geen licentie voor database" verscheen wanneer de geheime sleutel van Azure Data Lake Storage verlopen was.

  • Oudere bestanden werden niet verwijderd bij het uitvoeren van een nieuwe taak. Dit kan ertoe leiden dat de taak mislukt vanwege dubbele records of vanwege niet-overeenkomende records.

     

  • Een foutmelding "functie niet ondersteund: kan door gebruiker gedefinieerd type niet selecteren" trad op bij het selecteren van een door gebruiker gedefinieerde tabel voor replicatie. Het probleem is opgelost door door de gebruiker gedefinieerde tabellen (die niet worden ondersteund) uit te sluiten van de tabelselectie.

  • Een fout "Conversie mislukt" trad soms op na het herstellen van een verbindingsfout die optrad tijdens CDC.

  • Bij het uitschakelen van LOB-ondersteuning gaf CDC een foutmelding "niet genoeg gegevenskolommen" wanneer geprobeerd werd de wijziging in de __ct tabel in te voegen. Deze fout treedt op wanneer u in de modus "Wijzigingen opslaan" werkt, wat de enige beschikbare modus voor tussenopslagtaken is.

  • Tijdens CDC, bij het repliceren van een "NOT NULL" kolom met mediumtext gegevenstype, mislukte de taak soms met de volgende fout:

    A NOT NULL constraint violation occurred on LOB column from MySQL source

  • Bij het invoegen van een VARCHAR kolom trad de volgende afkapfout op:

    String or binary data would be truncated while reading column of type 'VARCHAR'

    Het probleem werd opgelost door de VARCHAR kolom in Microsoft Fabric te vermenigvuldigen.

Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht.
2024.5.54 Standaard 21 januari 2025

Ondersteuning voor het opgeven van extra ODBC- en JDBC-verbindingseigenschappen is toegevoegd aan de Snowflake-doelconnector

Ga voor meer informatie naar Extra verbindingseigenschappen.

  • Wanneer een primaire sleutel voor de bron werd gewijzigd, werden de doelmetagegevens niet bijgewerkt na een herlading.

  • Bij het aanmaken en uitvoeren van een nieuwe taak werden bestanden die overgebleven waren van eerdere taken niet verwijderd van de locatie van de tabellen.

  • Als u verbinding probeert te maken met een SAP HANA-bron met behulp van logboekgebaseerde CDC, leidt dit tot de volgende fout:

    Cannot select user-defined type

25 augustus 2025

2024.5.41

Patch

19 december 2024

Deze patch lost de volgende problemen op:

  • Lege tekenreeksen worden nu tussen aanhalingstekens geplaatst in het CSV‑bestand om ze te onderscheiden van NULL-waarden.

  • In bepaalde scenario's komen de bron- en doelgegevens niet met elkaar overeen.

  • Door het uitschakelen van LOB-ondersteuning in de taak voor tussenopslag faalt CDC met de volgende fout (uittreksel):

    Cannot write to '<name>__ct', not enough data columns

  • Het toepassen van wijzigingen op het doel na het herstellen van een verbindingsfout mislukte soms met de foutmelding "Conversie mislukt".

25 augustus 2025

2024.5.35

Patch

10 december 2024

Deze patch lost de volgende problemen op:

  • Tijdens een opslagtaak werd het gegevenstype NVARCHAR(3500) ten onrechte geconverteerd naar VARCHAR(10500) in plaats van VARCHAR(8000) (het toegestane maximum), wat resulteerde in een fout.

  • Wanneer de gegevenstabel een GRAPHIC gegevenstype met codepagina 941 (Japans) bevatte, trad de volgende fout op (uittreksel):

    Unexpected CCSID '941' in column 'PNTNM'

25 augustus 2025

2024.5.32

Patch

26 november 2024

Na het bijwerken van de gebruikersnaam en het wachtwoord in de Workday Reports-bronconnector en het opnieuw laden van de taak, verscheen er een foutmelding "Ongeldige gebruikersnaam of wachtwoord", ook al waren de gegevens correct. Dit probleem is nu opgelost.

25 augustus 2025

2024.5.31

Patch

19 november 2024

Deze patch lost de volgende problemen op:

Oracle Java Standard Edition 17.0.8, die wordt geleverd met Data Movement gateway, heeft verschillende bekende kwetsbaarheden. Deze patch vervangt 17.0.8 door 17.0.12, waarmee de problemen zijn opgelost.

Tijdens CDC worden er voor elke wijziging meerdere INSERT-bewerkingen toegevoegd aan de associated _ct tabel (in plaats van slechts één). Hierdoor neemt het aantal records in de _ct tabel aanzienlijk toe.

25 augustus 2025

2024.5.28

Standaard

12 november 2024 Biedt verplichte functionaliteit voor de binnenkort beschikbare functie Schema-evolutie.

25 augustus 2025

2024.5.27

Patch

5 november 2024

Deze patch lost de volgende problemen op:

Op 14 augustus 2024 heeft Snowflake een beveiligingswaarschuwing uitgegeven over Snowflake JDBC-drivers >= 3.2.6 & <= 3.19.1, waarvan sommige werden gebruikt met eerdere versies van Data Movement gateway. De kwetsbaarheid is door middel van een patch verholpen in Snowflake JDBC Driver 3.20, de versie die nu wordt geïnstalleerd met het installatieprogramma van het stuurprogramma. Bestaande klanten moeten hun stuurprogramma zo snel mogelijk upgraden door de procedure Stuurprogramma bijwerken te volgen die wordt beschreven in Stuurprogramma instellen.

  • Bij het gebruik van een redo-gebeurtenis 11.22 ontstonden er ontbrekende INSERT's bij het verwerken van meerdere INSERT's op een gecomprimeerde pagina die voorafgaand aan de INSERT's niet was gecomprimeerd.
  • In zeldzame scenario's zou het onjuist parseren van DELETE-evenementen in de redo-logboekrecord een waarschuwing "De DELETE-gebeurtenis van het redo-logboek bevat een onbekende structuur" genereren, gevolgd door verschillende problemen.

De instructies in het YAML-bestand zijn bijgewerkt om de juiste versie van de SAP Java Connector weer te geven.

Bij gebruik van de Data Movement gateway om verbinding te maken met een Snowflake-doel via een proxy, mislukt de verbinding met de volgende fout:

500 Failed to connect to Data Movement Gateway

25 augustus 2025

2024.5.22

Patch

15 oktober 2024 Deze patch lost een probleem op in een taak voor volledige laden + CDC-replicatie, waarbij het veld Gegevenstaak wordt bijgewerkt naar voor de CDC-taak de tijdstempel voor volledig laden weergeeft in plaats van de CDC-tijdstempel(s).

25 augustus 2025

2024.5.16

Patch

8 oktober 2024
    • Gemiste INSERT's kwamen soms voor in meerdere INSERT-bewerkingen bij gebruik van de redo-gebeurtenis 11.22.
    • Na het upgraden van Oracle 19g naar de juli 2024 patch, werden UPDATE -bewerkingen soms niet vastgelegd en werd de volgende waarschuwing getoond:

      A compressed row cannot be parsed

  • Wanneer de taakinstellingen waren geconfigureerd om het schema van de controletabel te maken, mislukte de taak met de volgende fout:

    Failed to delete directory

  • Wanneer een taak was gepland om periodiek te worden uitgevoerd, mislukte deze soms met de volgende foutmelding:

    The task stopped abnormally

  • Transformatie- en opslagtaken bleven soms buitensporig lang in de status In wachtrij staan.

  • Taken mislukten bij gebruik van de use_manipulation_pk_for_apply functievlag door replicatie met wijzigingen opslaan.

  • De S3 time-out is verlengd naar 6 uur om problemen als gevolg van langdurige time-outs te voorkomen, zoals het verliezen van het token om de bestanden te downloaden.

25 augustus 2025

2024.5.14

Standaard

10 september 2024
  • Sleutel/paar biedt een robuustere verificatiemethode dan gebruiker/wachtwoord om met uw serviceaccounts verbinding te maken met Snowflake. Deze aanpak wordt aanbevolen voor werklasten zoals gegevensladingen (replicatie- of tussenopslagtaken) en transformaties.

  • In vorige versies mislukte het vernieuwen van de metagegevens van een bestaande gegevensverzameling of een nieuw toegevoegde gegevensverzameling soms met een foutmelding. Deze verbetering zorgt ervoor dat metagegevens zonder problemen tegelijkertijd uit meerdere tabellen kunnen worden opgehaald.

  • Wanneer een brontabel een kolom met het gegevenstype DECIMAL bevatte - bijvoorbeeld DECIMAL (38, 20) - mislukte het voorbereiden van de opslagtaak in Google BigQuery met de volgende fout (fragment):

    Column <n> in <table name> has incompatible types: STRING, BIGNUMERIC at [93:1]

    Het probleem is opgelost door het brongegevenstype DECIMAL te koppelen aan DECIMAL in Google BigQuery

  • Na het aanbrengen van wijzigingen in een bestaande schemaregel in een gegevenstaak, trad de volgende fout op:

    QRI SQL error not implemented

  • Bij het voorbereiden van een tussenopslagstaak die verbinding maakt met een SAP Application-bron, wordt de taak met succes voltooid, maar wordt de volgende fout gerapporteerd in het repsrv.log logboekbestand:

    Invalid object name 'hk1./QTQVC/QRI'

25 augustus 2025

2024.5.7

Standaard

6 augustus 2024
  • Als er eerder een wijziging van de metagegevens plaatsvond, werden alle tabellen verwijderd en opnieuw gemaakt, zelfs als de wijziging geen invloed had op alle tabellen. Nu worden alleen de gewijzigde tabellen verwijderd en opnieuw gemaakt, waardoor de prestaties worden verbeterd.

  • Tabellen die zijn gemaakt in de brondatabase tijdens de replicatiegegevenstaak die overeenkomen met het opgenomen patroon, worden nu automatisch tijdens CDC (wijzigingsgegevens vastleggen) opgenomen

    • Voorheen zorgde Qlik Talend Data Integration er bij het lezen van meerdere transacties vanuit Microsoft SQL Server (MS-CDC) voor dat alleen de transactie-id en het tijdstempel van de eerste transactie werden behouden. Hierdoor leek het in het doel alsof de records deel uitmaakten van een afzonderlijke transactie. Vanaf nu behoudt Qlik Talend Data Integration de originele transactie-id en tijdstempel voor elk afzonderlijk record. Dit is praktisch voor klanten die de koptekstkolommen voor transactie-id en tijdstempel willen toepassen in wijzigingstabellen.

    • Eerder werden de bytes in de transactie-id in omgekeerde volgorde gecodeerd. Vanaf deze versie worden de bytes in de juiste volgorde gecodeerd. Klanten die liever het bestaande gedrag behouden, kunnen dit doen met behulp van interne parameters. Neem contact op met Qlik Support voor meer informatie.

  • Qlik Talend Data Integration biedt nu ondersteuning voor het cachen van SHA-2 pluggable authenticatie (caching_sha2_password) bij het werken met MySQL-bronnen of -doelen, zowel on-premises als in de cloud. In eerdere versies werd alleen systeemeigen pluggable authenticatie (mysql_native_password) ondersteund.

  • BYTES- en BLOB-gegevenstypen worden nu toegewezen aan VARBYTE op Amazon Redshift in plaats van VARCHAR.

    • PostgreSQL 16.x

    • MySQL 8.1
    • IBM DB2 for z/OS 3.1
    • PostgreSQL 16.x
    • MySQL 8.1
    • Databricks 14.3 LTS
    • SQL Server ODBC Driver 18.3

De volgende databaseversies worden niet meer ondersteund:

  • Alle Oracle-versies en -stuurprogramma's die ouder zijn dan Oracle 19.x
  • Microsoft SQL Server 2014
  • MySQL 5.7
  • PostgreSQL 11
  • IBM DB2 for LUW 10.5
  • IBM DB2 for z/OS: z/OS 2.3
  • Als een vastgelegde documentwijziging van een cluster alle rijen van de vastgelegde tabellen verwijdert, kregen gebruikers te maken met een ontbrekende DELETE-bewerking en onnodige bevestigingsberichten.

  • Microsoft Authentication Library for Java (MSAL4J) en Bouncy Castle zijn bijgewerkt naar versies zonder bekende beveiligingsproblemen.

    • De taak mislukte soms bij gebruik van interne opslag van Snowflake.
    • De taak mislukte als de naam van het doelschema in Japanse Katakana was.
  • Als een taak met een Oracle-bron werd hervat, wachtte de taak op een verwijderd gearchiveerd redo-logboek in plaats van te mislukken met de juiste fout.

25 augustus 2025

2023.11.23

Standaard

26 juni 2024
  • Vanaf deze versie wordt het Snowflake-metagegevensschema (voor tussentijds opgeslagen bestanden) gemaakt als dit nog niet bestaat.

  • Nadat een wijziging was toegepast op de regel Naam gegevensverzameling wijzigen (die de tabelnaam heeft samengevoegd met de schemanaam) en een weergave is toegevoegd aan de tussenopslagtaak, mislukte de Prepare-bewerking met de volgende fout:

    QRI SQL error not implemented.

  • Het component java_file_factory is bijgewerkt naar een versie zonder bekende beveiligingsproblemen.
  • org.postgresql:postgresql is bijgewerkt naar een versie zonder bekende beveiligingsproblemen.
  • Bij het verplaatsen van gegevens naar SQL Server, mislukte de Prepare-bewerking als indexnamen langer dan 128 tekens waren. Het probleem is verholpen door de logica te wijzigen voor het maken van kortere indexnamen.
  • Bij het verplaatsen van gegevens vanuit SQL Sever veroorzaakte een ontbrekende kolomnaam in de tabeldefinities een oneindige meldingsloop in het bestand repsrv.log, met het volgende bericht:

    mssql_resolve_sqlserver_table_column_attributes(...) failed to find column

6 februari 2025

2023.11.11

Standaard

21 mei 2024
  • Er is ondersteuning toegevoegd zodat de metagegevens voor meerdere tabellen tegelijkertijd worden opgehaald.

  • De monitoringgegevens voor de tussenopslag- en replicatietaken worden nu elke 10 seconden bijgewerkt (in plaats van elke 60 seconden) voor een nauwkeurigere indicatie van hun huidige status.

  • Japan wordt nu ondersteund als een tenantregio voor Qlik Cloud.

  • De interval voor nieuwe poging tussen de gegevensgateway en Qlik Cloud bleef regelmatig toenemen, maar werd nooit gereset (tenzij de service opnieuw werd gestart).
  • Bij het verplaatsen van gegevens vanuit een SaaS-applicatiebron ontstond bij sommige tabellen een foutstatus tijdens het opnieuw laden.
  • Taken met een MySQL-bron mislukten soms met de volgende fout tijdens CDC:

    Read next binary log event failed; mariadb_rpl_fetch error 0 Error reading binary log.

  • Eerder werden auditgebeurtenissen van CDC alleen geregistreerd voor tussenopslagtaken. Nu worden ze ook geregistreerd voor replicatietaken.
  • Bij het verplaatsen van gegevens van SQL Server (MS-CDC) duurde het soms enkele uren voordat taken met veel tabellen werden gestart.
  • Als de brontabel CLOB-kolommen bevatte en de waarde 'LOB-grootte beperken' 10240 overschreed, mislukte de replicatie naar Snowflake met de volgende fout:

    Invalid character length: 0

Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht.
2023.11.4

Standaard

12 maart 2024

Klanten kunnen nu Data Movement gateway installeren op Red Hat 9.x of een andere overeenkomende en compatibele Linux-distributie.

Data Movement gateway installeren

De opdrachten voor het stoppen, starten en controleren van de status van de Data Movement gateway-service zijn gewijzigd.

Service-instructies Data Movement gateway

  • Het BOOLEAN-gegevenstype, dat is toegewezen aan VARCHAR(1) in Amazon Redshift, wordt nu toegewezen aan BOOLEAN.
  • De BYTES- en BLOB‑gegevenstypen, die zijn toegewezen aan VARCHAR(1) in Amazon Redshift, worden nu toegewezen aan VARBINARY (length).

Deze sectie toont de nieuwe ondersteunde databases, databaseversies en stuurprogrammaversies.

  • Nieuwe ondersteunde versies en edities van gegevensbronnen

    De volgende versies van gegevensbronnen worden nu ondersteund:

    • Azure Database for MySQL - Flexible Server (ondersteund via de MySQL-bronconnector)
    • MariaDB 10.4 - 10.11 (voorheen 10.4 en 10.5)
  • Nieuwe ondersteunde versies en edities van doelgegevensplatformen

    De volgende versies van gegevensdoelen worden nu ondersteund:

    • Azure Database for MySQL - Flexible Server (ondersteund via de MySQL-doelconnector)
    • Databricks: Databricks 13.3 LTS en Serverless SQL Warehouse
  • Nieuwe ondersteunde SAP HANA stuurprogrammaversie

    Klanten met een SAP HANA-bron die Data Movement gateway willen installeren op Red Hat Linux 9.x, moeten de SAP HANA ODBC 64-bits stuurprogrammaversie versie 2.0.19 of hoger installeren.

Deze sectie biedt informatie over databaseversies waarvoor de ondersteuning eindigt.

  • De volgende gegevensbronversies worden niet meer ondersteund:

    • Oracle 11.x
    • SAP HANA 1.0
  • Als Data Movement gateway werd geïnstalleerd zonder het opgeven van een serverwachtwoord, konden de tenant- en proxy-URL's met een opdracht worden geconfigureerd.
  • Het verplaatsen van een Salesforce (SaaS application) gegevensbron zorgde voor een groter aantal redundante waarschuwingen, wat van invloed was op de laadprestaties van gegevens.
  • Als er bij het ophalen van wijzigingen voor een gegevensbron van een SaaS-applicatie een fout optrad bij het ophalen van wijzigingen voor één van de tabellen, werd die tabel onderbroken en verwijderd uit de pijplijn. Als er nu een fout optreedt, probeert de taak tot drie keer om de wijzigingen op te halen voordat de tabel wordt onderbroken.
Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht.
2023.5.16

Standaard

9 januari 2024

We blijven de ondersteunde doelen voor het Replication-project in Qlik Cloud Data Integration uitbreiden. Naast Amazon S3, kunt u nu kiezen uit Azure Data Lake Storage (ADLS) en Google Cloud Storage (GCS) voor leveringen in een datalake in de bestandsindeling Parquet, JSON of CSV.

  • De verbinding met IBM DB2 for LUW werd verbroken als de grootte van de bestanden die zijn vereist voor de verbinding (zoals het SSL-clientcertificaat en het keystore-bestand) groter was dan 4 KB.

  • De installatie van het DB2-stuurprogramma mislukte bij gebruik van het hulpprogramma voor installatie van het stuurprogramma.

7 september 2024

2023.5.15

Standaard

12 december 2023

Microsoft Fabric wordt toegevoegd aan de steeds langer wordende lijst met datawarehouses die als doel in gegevenspijplijnprojecten kunnen worden gebruikt.

Heeft de Snowflake-besturingsprogrammaversie bijgewerkt in het hulpprogramma voor installatie van stuurprogramma's.

7 september 2024

2023.5.10

Standaard

31 oktober 2023

U kunt een privéverbinding gebruiken om te garanderen dat uw gegevensverkeer veilig en compliant blijft. Dit vereenvoudigt zowel het netwerkbeheer als de beveiliging van uw VPC (virtuele privécloud) zonder dat u binnenkomende firewallpoorten moet openen, een proxy voor apparaten moet instellen of routeringstabellen nodig hebt. Qlik Cloud Gegevensintegratie biedt al ondersteuning voor privéverbindingen naar doelen van Snowflake-, Microsoft SQL Server- en Amazon S3-gegevenspijplijnen. Met deze release kunnen klanten ook privéverbindingen gebruiken als ze gegevens verplaatsen naar Databricks, Microsoft Azure Synapse, Google BigQuery en Amazon Redshift.

  • Ondersteuning van alle gegevensbronnen op basis van PostgreSQL - Multirange-gegevenstypen: De volgende multirange-gegevenstypen worden nu ondersteund met alle gegevensbronnen op basis van PostgreSQL (on-premises en de cloud).

    • INT4MULTIRANGE
    • INT8MULTIRANGE
    • NUMMULTIRANGE
    • TSMULTIRANGE
  • AWS Aurora Cloud for PostgreSQL-gegevensbron - Ondersteuning van rol niet-beheerders: De gebruiker die is opgegeven in de PostgreSQL-connector heeft niet langer de beheerdersrol nodig om gegevens te verplaatsen van een AWS Aurora Cloud for PostgreSQL-gegevensbron. Dit is met name handig voor organisaties met een bedrijfsveiligheidsbeleid waarbij beheerdersmachtigingen niet kunnen worden toegewezen aan niet-gemachtigde gebruikers.

Klanten die gegevens verplaatsen van een Microsoft Azure SQL-gegevensbron (MS-CDC) kunnen vanaf nu gebruikmaken van een Geo Replica-database.

Qlik Cloud Gegevensintegratie biedt nu ondersteuning voor het lezen van gegevens van door Oracle versleutelde tabelruimten en versleutelde kolommen tijdens CDC.

Qlik Cloud Gegevensintegratie biedt nu ondersteuning voor tenants in Duitsland en het Verenigd Koninkrijk.

Deze sectie toont nieuwe ondersteunde database- en stuurprogrammaversies.

  • Nieuwe ondersteunde gegevensbronversies. De volgende versies van gegevensbronnen worden nu ondersteund:

    • Microsoft SQL Server 2022
    • Oracle 21c
    • PostgreSQL 15.x
    • DB2 13.1 (bij gebruik van IBM DB2 for z/OS)
    • IBM DB2 for iSeries 7.5
  • Nieuwe ondersteunde versies van doelgegevensplatforms De volgende versies van gegevensdoelen worden nu ondersteund:

    • Databricks (cloudopslag): Databricks 12.2 LTS en Databricks SQL Serverless
  • Stuurprogrammaversies. De volgende versies van ODBC-stuurprogramma's worden nu ondersteund:

    • IBM Data Server Client 11.5.8 for IBM DB2 for z/OZ en IBM DB2 for LUW
    • Simba ODBC-stuurprogramma 3.0.0.1001 for Google Cloud BigQuery
    • MySQL ODBC Unicode Driver 64-bits 8.0.32

Klanten die gegevens verplaatsen naar of vanuit Microsoft SQL Server moeten hun SQL Server ODBC-stuurprogrammaversie bijwerken naar 18.x of later. Let op: door SQL Server ODBC Driver 17.x te blijven gebruiken, kunnen er gegevensfouten ontstaan. Het stuurprogramma kan handmatig worden bijgewerkt of met behulp van het stuurprogramma-installatieprogramma. Raadpleeg Installatie stuurprogramma voor instructies.

Deze sectie biedt informatie over databaseversies waarvoor de ondersteuning eindigt.

  • Gegevensbronversies die niet meer worden ondersteund. De volgende gegevensbronversies worden niet meer ondersteund:

    • PostgreSQL 10
    • MySQL 5.6
    • MariaDB 10.3
  • Versies van doelgegevensplatforms die niet meer worden ondersteund. De volgende gegevensdoelversies worden niet meer ondersteund:

    • Databricks 9.1 LTS

7 september 2024

2022.11.74

Standaard

15 augustus 2023

We volgen een 'cloud-first'-aanpak om snelle innovaties en toepassingen mogelijk te maken. Dit betekent niet dat we 'cloud-only' zijn. Als onderdeel van onze voortdurende inzet om de langetermijnwaarde voor onze klanten te verbeteren, zijn we verheugd om onze nieuwe release aan te kondigen van een nieuwe gebruikscase voor Replication voor het maken van gegevensprojecten. De nieuwe gebruikscase voor Replication is een aanvulling op de bestaande mogelijkheid om gegevenspijplijnen te maken voor al uw behoeften voor gegevensintegratie, zoals het moderniseren van uw datawarehouse.

Het replicationproject ondersteunt realtime replication van ondersteunde gegevensbronnen naar een ondersteund doel.

Vanaf deze laatste release is Microsoft SQL Server het eerste doel dat het realtime repliceren van gegevens ondersteunt. Naast dat Microsoft SQL Server on-premises ondersteuning biedt, worden de volgende cloudproviders ook ondersteund:

  • On-premises
  • Amazon RDS
  • Google Cloud
  • Microsoft Azure (Microsoft Azure Managed Instance en Microsoft Azure Database)

Klanten die gegevens verplaatsen naar Microsoft Azure Synapse Analytics moeten hun SQL Server ODBC Driver-versie bijwerken naar 18.x of later. Let op: door SQL Server ODBC Driver 17.x te blijven gebruiken, kunnen er gegevensfouten ontstaan. Het stuurprogramma kan handmatig worden bijgewerkt of met behulp van het stuurprogramma-installatieprogramma. Raadpleeg Installatie stuurprogramma voor instructies.

Een nieuwe optie Gegevens laden vanuit bron is geïntroduceerd, waarmee klanten hun gegevens direct vanuit de bron kunnen lezen met behulp van volledig laden, in plaats van gecachete gegevens te moeten gebruiken.

Voor meer informatie over deze optie en gebruikstoepassingen, gaat u naar Instellingen voor tussenopslag.

Data Movement gateway 2022.11.74 bevat bijgewerkte CA-certificaten die nodig zijn voor verificatie van de Qlik Cloud-tenant. De bijgewerkte CA-certificaten bieden tevens ondersteuning voor de regio's Ierland en Frankfurt. Daarom moeten klanten met Qlik Cloud-tenants in Ierland of Frankfurt die Qlik Cloud Gegevensintegratie willen gebruiken, upgraden naar deze versie.

Taken waarmee gegevens van een Oracle-bron tijdelijk worden opgeslagen mislukken soms als een brede tabel niet-gebruikte of niet-ondersteunde kolommen bevat of LOB-kolommen bevat die niet zijn gerepliceerd.

31 april 2024

2022.11.70

Standaard

28 juni 2023

In voorgaande versies moesten klanten de opdracht "source arep_login.sh" uitvoeren bij de installatie van SAP-clients. Vanaf deze versie is het niet meer nodig om deze opdracht uit te voeren.

Deze versie bevat bijgewerkte CA-certificaten die nodig zijn voor verificatie van de Qlik Cloud-tenant.

  • Als een replicatietaak in Data Movement gateway is mislukt en automatisch is hersteld, wordt de herstelde staat niet gecommuniceerd met de tijdelijke gegevensasset in Qlik Cloud.

  • End-to-endversleuteling voor de Data Movement gateway wordt niet standaard ingeschakeld en wordt aangestuurd door runtimevlaggen.
15 september 2023

2022.11.63

Standaard

2 mei 2023

In deze versie wordt een installatieprogramma voor stuurprogramma's geïntroduceerd waardoor stuurprogramma's niet meer handmatig hoeven te worden geïnstalleerd en geconfigureerd. Het nieuwe hulpprogramma verkort het installatieproces en vermindert de kans op menselijke fouten drastisch. Zodra het hulpprogramma wordt uitgevoerd, wordt het vereiste stuurprogramma automatisch gedownload en waar mogelijk geïnstalleerd. Als het stuurprogramma niet kan worden gedownload (omdat DB2-stuurprogramma's bijvoorbeeld vereisen dat de gebruiker zich aanmeldt), downloadt u het stuurprogramma en kopieert u het naar een speciale map op machine voor de gateway voor gegevensverplaatsing. Hiervandaan voert u het hulpprogramma uit.

Voor een voorbeeld van hoe u een PostgreSQL-stuurprogramma installeert met behulp van het installatieprogramma voor stuurprogramma's, zie Vereisten

De Snowflake-connector biedt nu ondersteuning voor emoticons van 4 bytes.

De PostgreSQL-connector kan nu gegevens verplaatsen vanuit de Azure Database for PostgreSQL - Flexibele server.

De PostgreSQL-connector kan nu gegevens verplaatsen vanuit Cloud SQL for PostgreSQL.

Deze versie introduceert ondersteuning voor de volgende nieuwe gegevensbronversies:

  • PostgreSQL 14
  • DB2 (voor IBM DB2 voor z/OS) 12.1
  • IBM DB2 voor z/OS 2.5

Databricks 11.3 LTS

De volgende gegevensbronversies worden niet meer ondersteund:

  • DB2 (voor IBM DB2 voor z/OS) 11
  • PostgreSQL 9.6
  • Microsoft SQL Server 2012
  • MariaDB 10.2

Deze versie biedt oplossingen voor de volgende problemen:

  • Oracle gegevensbron: Wanneer een taak werd gestopt en hervat, mislukte de taak soms met de foutmelding "Failed to set stream position on context".
  • SAP-applicatiebron: Veranderingen werden niet vastgelegd tijdens de tussenopslagtaak.

15 september 2023

2022.5.13

Standaard

19 oktober 2022

Eerste release

2 augustus 2023

Data Movement gateway verwijderen

Voer de volgende opdracht uit om Data Movement gateway te verwijderen:

rpm -e <installation package name>

Voorbeeld:

rpm -e qlik-data-gateway-data-movement-2023.11-1.x86_64

Als u de pakketnaam niet weet, voer dan het volgende uit:

rpm -qa | grep qlik

WaarschuwingDoor het verwijderen van de Data Movement gateway zullen alle taken mislukken die momenteel de gegevensgateway gebruiken.

Was deze pagina nuttig?

Als u problemen ervaart op deze pagina of de inhoud onjuist is – een tikfout, een ontbrekende stap of een technische fout – laat het ons weten!