Gå till huvudinnehåll Gå till ytterligare innehåll

Uppgradera och avinstallera Gateway för dataflytt

I det här ämnet beskrivs hur du uppgraderar eller avinstallerar din Gateway för dataflytt-installation. Här finns också en tabell med de ändringar som introducerats i varje version av Gateway för dataflytt.

Uppgraderingsprocedur

För att verifiera din nuvarande version går du till Administration > Datagateways och kontrollerar kolumnen för den Version som motsvarar din Gateway för dataflytt.

Om det finns en ny tillgänglig version får versionsnumret tillägget !. Du kan hovra över Information för att få mer information.

Anteckning om informationVersioner släpps ibland som patchar. ! kommer endast att visas om det finns en ny standard-version tillgänglig (till skillnad från en patch-version). För att ta reda på om en version är en patchversion eller en standardversion, se kolumnen Typ i tabellen med versionshistorik för Gateway för dataflytt nedan.

Om den installerade gateway-versionen inte stöds kommer Status att Inaktiveras, och en uppgradering krävs för att aktivera gatewayen.

När en ny version av Gateway för dataflytt-rpm:en blir tillgänglig ska du hämta den från Administration och uppgradera den befintliga installationen.

För att göra detta:

  1. Hämta den nya versionen genom att klicka på Mer på gateway-datorn och sedan på Uppgradera.

    Bekräfta kundavtalet och hämta sedan RPM-filen.

  2. Öppna en skalprompt och ändra arbetskatalogen till den katalog som innehåller RPM-filen:
  3. Kör följande kommando:

    Syntax:

    rpm -U <rpm name>

    Exempel:

    sudo rpm -U qlik-data-gateway-data-movement.rpm

  4. Starta Gateway för dataflytt-tjänsten.

    sudo systemctl start repagent

  5. Du kan även bekräfta att tjänsten har startats:

    sudo systemctl status repagent

    Statusen ska vara enligt följande:

    Active: active (running) since <timestamp> ago

Gateway för dataflytt versionshistorik

Version

Typ

Utgivningsdatum

Viktiga ändringar

Support upphör

2025.5.22 Standard 25 november 2025

Från och med den här versionen kommer datauppgiften att skapa en primärnyckel på Databricks Delta-måltabeller med hjälp av nyckelordet RELY. Även om Databricks inte tillämpar primärnyckelbegränsningar, antas primärnycklar med nyckelordet RELY inte ha några kopior och kan därför användas av Databricks för frågeoptimering.

Krav:

  • Du måste välja en katalog i kopplingsinställningarna

  • Databricks 14.2 eller senare

  • IBM DB2 för iSerieskälla: Stöd för följande datatyper har lagts till: BINARY-DECIMAL och ZONED-DECIMAL

  • Databricks-mål: I tidigare versioner mappades BYTES till STRING. Från och med den här versionen kommer det att mappas till VARCHAR (Längd i byte)

  • Mål för Google Cloud BigQuery: JSON-undertypen stöds nu av målet för Google Cloud BigQuery

Replikering (Fullständig inläsning och CDC) av partitioner och delpartitioner (och del-delpartitioner) från PostgreSQL-baserade datakällor stöds nu som standard.

Google Cloud BigQuery-mål: Stöder nu hantering av fel vid datatrunkering. Om ett datatrunkeringsfel inträffar kan du nu välja om posten ska loggas till kontrolltabellen för undantag (standard), ignorera posten, pausa tabellen eller stoppa uppgiften.

Följande käll- och måldataversioner stöds nu:

  • MariaDB (lokal) och Amazon RDS för MariaDB: 11.4

  • MySQL (lokalt installerad), MySQL Percona, Google Cloud SQL för MySQL, Amazon RDS för MySQL och Microsoft Azure Database för MySQL – flexibel server: 8.4

  • PostgreSQL (lokalt installerad), Google Cloud SQL för PostgreSQL, Amazon RDS för PostgreSQL och Microsoft Azure Database för PostgreSQL – flexibel server: 17.x

IBM Data Server Client 11.5.9 stöds nu för följande DB2-källor:

  • IBM DB2 för LUW

  • IBM DB2 för z/OS

  • Uttjänta källor och mål: Stöd för Microsoft Azure Database för MySQL och Microsoft Azure Database för PostgreSQL, som officiellt har dragits tillbaka av Microsoft, har upphört.

  • Uttjänta källversioner: Stöd för IBM DB2 för iSeries 7.2, som är EOL, har upphört.

  • Drivrutinsversioner som har uppnått slutet av sin livscykel: Stödet för IBM Data Server Client 11.5.6 har upphört.

Lösta problem

  • HSTS var inte aktiverat på Qlik Data Gateway – dataflytt-maskinen.

  • Installationen av Gateway för dataflytt på Redhat version 9.7 skulle misslyckas med felmeddelandet "OPENSSL_3.4.0 not found".

  • Under CDC skulle uppgiften fortsätta att läsa samma WAL-poster och bearbeta samma strömposition.

  • Efter att en CDC-uppgift stoppades under ändringar (till exempel på grund av ett anslutningsproblem), kunde återupptagande av uppgiften ibland resultera i fel med radlängden.

  • Källans kopplingsloggar skulle vara otillgängliga efter att ha kört en uppgift som använde en förhandsgransknings- eller Lite-koppling.

  • Fliken Övervakning visade inget felmeddelande när en tabell pausades under CDC-steget i en Fullständig laddnings- och CDC-uppgift.

Konstateras när nästa stora huvudversion publiceras
2024.11.95 Standard 4 november 2025

Stöd för att skapa kunskapsmartar i Databricks

Kunskapsmarter stöddes tidigare endast av Snowflake. Nu kan du skapa och köra kunskapsmarter och filbaserade kunskapsmarter även på Databricks.

Lösta problem:

Uppgifter misslyckades periodvis under förberedelsen med följande fel:

The request was canceled due to the configured HttpClient.Timeout of 300 seconds elapsing.

11 maj 2026
2024.11.90 Standard 21 oktober 2025

Lösta problem:

När den interna egenskapen för metadataschemat definierades med specialtecken, misslyckades uppgiften under CDC.

11 maj 2026
2024.11.84 Patch Den 16 september 2025

Lösta problem:

  • Kunder i region EU-Central-1 skulle uppleva frekventa aviseringar om produktion när de använder Gateway för dataflytt.

  • Vid replikering av data från Jira fastnade USERS-tabellen i statusen Köad vid första körningen, medan de andra tabellerna laddades framgångsrikt.

  • CDC-övervakning saknades i aktivitetsmonitorn.

  • Replikeringar för Oracle-to-Oracle kunde ibland misslyckas på grund av en felaktig beräkning av stränglängden.

  • Java-serverkomponenten (sqlite-jdbc) har uppdaterats till 3.47.0 på grund av en känd sårbarhet i tidigare versioner.

  • Felet "Ingen licens för databas" kunde ibland uppstå när en uppgift startades i återupptagningsläge för första gången, utan att tidigare ha startats.

  • Om du lägger till nya datauppsättningar i en uppgift för mellanlagring med en Salesforce-datakälla misslyckas uppgiften med felet "Tabellen finns inte".

11 maj 2026
2024.11.78 Standard 3 september 2025
Anteckning om varning

Kunder som använder ett Snowflake-mål måste uppgradera sin Snowflake-drivrutin när uppgraderingen av Gateway för dataflytt är klar. Annars kommer uppgifterna att misslyckas.

Instruktioner finns i Inställning av drivrutin.

  • Lagringsuppgifter misslyckades med en felaktig koppling som krävde att gatewayen startades om.

  • Installationen av DB2-drivrutinen misslyckades när åtkomsten till mappen /tmp var begränsad.

  • Efter uppgradering till Gateway för dataflytt version 2024.11.65 tog det orimligt lång tid att få koppling till Qlik Cloud. Problemet löstes genom att lägga till en token för avbokning med en timeout på två minuter.

  • Efter uppgradering till Gateway för dataflytt 2024.11.67 kraschade tjänsten external-data-provider (som används av Lite-kopplingar) på grund av åtkomstbegränsningar i mappen /tmp.

  • Följande komponenter har ersatts med senare versioner på grund av kända sårbarheter:

    • SQLite 3.49.1

    • Java Runtime Engine 17.0.15

    • org.bouncycastle:bcpkix-fips 2.0.7 (bcpkix-fips-2.0.7.jar)

    • org.bouncycastle:bc-fips 2.0.0 (bc-fips-2.0.0.jar)

  • Koppling till SMB skulle misslyckas med följande fel:

    SmbConnection' object has no attribute 'docs_path'

  • När man förbereder en uppgift för andra gången och en DDL inträffade efter den första förberedelsen, kunde förberedelsen ibland misslyckas med följande fel (utdrag):

    Could not find match between landing metadata with gateway task metadata for the following tables: <name>

  • Alternativet för förhandsgranskning av data fungerade inte när du använde ett Microsoft SQL Server-mål.

  • I den här versionen läggs stöd till för användning av Gateway för dataflytt med Qlik Cloud Government DoD.

11 maj 2026
2024.11.70 Standard August 12, 2025
  • En ny inställning för Antal försök innan ett tabellfel returneras har lagts till i inställningarna för hantering av tabellfel för replikering och mellanlagring. Tidigare, när ett tabellfel inträffade, skulle tabellen avbrytas eller uppgiften stoppas (enligt den valda felhanteringsåtgärden). Detta resulterade ibland i att tabeller avbröts under underhållsfönstret för SaaS-programmet. Med detta nya alternativ är det nu möjligt att bestämma hur många gånger tabellen ska provas på nytt innan policyn för hantering av tabellfel utlöses. Det här alterantivet är särskilt användbart om din SaaS-applikation genomgår periodiskt underhåll eftersom du kan åsidosätta standardvärdet för antal försök (3) så att underhållet kan slutföras utan att policyn för tabellfelshantering triggas.

    Tabellfelshantering

    Anteckning om informationDet här alternativet visas endast för uppgifter som är konfigurerade med en Lite- eller Standard SaaS-applikationskoppling.
  • Vid förhandsgranskning av en SQL-transformering kommer resultatet nu att inkludera kolumndatatyperna.

    Förhandsgranska data

11 maj 2026
2024.11.67 Standard 29 juli 2025
  • En policy för rullning och rensning har implementerats för replikeringsloggfilerna på gateway-maskinen. Rullningspolicyn kommer att förhindra att loggfilerna blir för stora (vilket påverkar prestanda och analys), medan rensningspolicyn kommer att förhindra dem från att ackumuleras och förbruka överdrivet diskutrymme.

  • Vid ominläsning av en inaktiverad tabell kunde det ibland hända att tabellstatusen som visades i monitorn var felaktig.

  • Vid förberedelse av en mellanlagring efter att ha lagt till en datauppsättning kunde det ibland uppstå en timeout i katalogiseringsfasen för tillgångar. Detta ledde till att förberedelseåtgärden misslyckades.

11 maj 2026
2024.11.65 Patch 22 juli 2025

Denna patch löser följande problem:

  • När du la till en ny tabell i en replikering och klickade på Förbered, kunde följande fel ibland uppstå:

    Prepare data task failed: Object reference not set to an instance of an object.

  • Följande Gateway för dataflytt installationsfiler uppdaterades till versioner utan kända sårbarheter:

    • java

    • jetty-io-<version>.jar

    • jetty-http-<version>.jar

    • spring-expression-<version>.jar

    • spring-core-<version>.jar

    • spring-context-<version>.jar

11 maj 2026
2024.11.61 Patch 15 juli 2025 Installationen av ai-local-agent (krävs för vektordatabas- och LLM-anslutning) på en maskin med Python 3.12 skulle misslyckas. Denna patch löser problemet. 11 maj 2026
2024.11.59 Patch 1 juli 2025

Denna patch löser följande problem:

  • Efter uppgradering till Gateway för dataflytt 2024.11.54 skulle anslutningen till databasen misslyckas.

  • Förberedelsen av datauppgiften skulle misslyckas när uppgiften konfigurerades med en SaaS-applikationskälla och ett Google BigQuery-mål.

  • Uppgifter med Java-baserade datakällor misslyckades efter uppgradering till Gateway för dataflytt 2024.11.54.

  • Under CDC, när en STRING-kolumn i en källtabell översteg 65536 byte, trunkerades data i STRING-målkolumnen. Uppgiften övergick sedan till "en-i-taget"-applikationsläge.

  • Filerna java_file_factory.jar och arep-google-cloud.jar uppgraderades till versioner utan kända sårbarheter.

11 maj 2026
2024.11.54 Patch 17 juni 2025

Denna patch löser följande problem:

  • Under fullständig laddning skulle uppgiften släppa och återskapa måltabellerna, även om uppgiften var konfigurerad med Om måltabellen redan finns: Ignorera

  • Efter att ha stoppat och förberett en befintlig replikeringsuppgift med replikeringsläget inställt på fullständig laddning och tillämpa ändringar, skulle antalet CDC-bearbetade poster öka, vilket resulterade i ett felaktigt antal.

  • När en ny datauppsättning lades till i en befintlig uppgift, misslyckades uppgiften med följande fel:

    Could not find a match between landing metadata and gateway task metadata for the following tables: <name>

  • Testkoppling till SAP- och SQL-baserade källor misslyckades.

  • Efter uppgraderingen av gatewayen kunde det hända att uppgifterna inte återupptogs som förväntat.

11 maj 2026
2024.11.45 Standard May 20, 2025

Stöd för Snowpipe Streaming

Tidigare var Massinläsning den enda tillgängliga metoden för att ladda data till Snowflake. Nu kan kunderna använda antingen Massinläsning eller Snowpipe Streaming för att introducera eller replikera sina data till Snowflake.

Fördelarna med Snowpipe Ström jämfört med Bulk lastning inkluderar:

  • Mindre kostsamt: Eftersom Snowpipe Streaming inte använder Snowflake-lagret bör driftskostnaderna vara betydligt billigare, även om detta beror på ditt specifika användningsfall.
  • Minskad latenstid: Eftersom data strömmas direkt till måltabellerna (utan mellanlagring) bör replikering från datakällan till målet vara snabbare.

Lösta problem

Denna patch löser följande problem:

  • När du söker efter databaser med hjälp av Microsoft Fabric-kopplingen uppstår följande fel (utdrag):

    Create connection failed'' with error 'java.lang.NoSuchMethodError

    Problemet orsakades av en inkompatibilitet med JDBC-drivrutinen 12.9.0-preview.jar, som installerades med drivrutinens installationsverktyg. Verktyget har nu uppdaterats för att installera en kompatibel drivrutin.

  • Efter uppgradering av Gateway för dataflytt eller omstart av tjänsten Gateway för dataflytt kunde Java-servern (som krävs för Java-baserade kopplingar som SAP ODP) inte starta.

    • End-to-end-kryptering var inte ömsesidigt tvingande för nyttolaster för loggningskommandon som returnerade kundhysta loggar från aktivitetscentret för Qlik Cloud Administration.

    • SQLite-versionen som används av Gateway för dataflytt uppgraderades på grund av en sårbarhet med version 3.42.0(CVE-2023-7104).

    • Filen com.h2database som används av Gateway för dataflytt uppgraderades på grund av en sårbarhet med version h2-2.1.212(CVE-2022-45868).

11 maj 2026
2024.11.34 Patch 1 april 2025

Den här patchen löser följande problem när du flyttar data från en IBM DB2 för iSeries-datakälla:

När du använder iSeries Access ODBC Driver 07.01.026 eller senare, skulle uppgiften misslyckas under CDC med ett "Parsingsfel".

11 maj 2026
2024.11.30

Standard

18 mars 2025

Kunder kan nu koppla upp sig till Databricksmålet med hjälp av OAuth-autentisering, vilket är den metod som Databricks rekommenderar för kontoautentisering. Autentisering av token för personlig åtkomst kommer att förbli tillgänglig för bakåtkompatibilitet för tillfället, men den anses vara mindre säker än OAuth.

  • När en datauppsättning definierades med parallell laddning och fullständig laddning därefter inaktiverades, utförde uppgiften fortfarande en fullständig laddning av datauppsättningen, även när den återupptogs från tidsmarkör.

11 maj 2026

2024.11.24

Patch

11 mars 2025

Denna patch löser följande problem:

  • Metadatagenereringen kunde inte slutföras för tabeller med en punkt i namnet (t.ex. Deprec.Area).

  • Uppgifterna återställdes endast en gång om de misslyckades vid fullständig laddning på grund av ett miljöproblem. Nu kommer de att återställas det antal gånger som har konfigurerats i Inställningar > Felhantering > Miljöfel > Maximalt antal försök.

11 maj 2026
2024.11.14 Standard 25 februari 2025

Förbättringar

PostgreSQL redundanscertifiering

Att arbeta med en sekundär databas efter redundans har certifierats med följande datakällor (som alla kan nås med hjälp av PostgreSQL-källans koppling):

  • Google Cloud SQL för PostgreSQL
  • Amazon RDS för PostgreSQL
  • PostgreSQL (på plats)

Se även: Konfigurera redundans

Förbättring av MySQL-prestanda

I tidigare versioner, när en MySQL-baserad källslutpunkt användes i en uppgift konfigurerad med begränsad LOB-storlek, använde Gateway för dataflytt källsökning för att läsa LOB-kolumnerna. Nu kommer Gateway för dataflytt att läsa LOB-kolumnerna direkt från binlog, vilket förbättrar prestandan.

Anteckning om informationDenna förbättring gäller inte för datatypen JSON.

Ändringar av datatypsmappningen

Mappningar till LOB-kolumner har ändrats för Amazon Redshift- och Snowflake-mål.

  • BLOB är nu mappad till VARBYTE(16777216)
  • NCLOB är nu mappad till NVARCHAR(65535)
  • CLOB är nu mappad till NVARCHAR(65535)
  • BLOB är nu mappad till BINARY (8388608)
  • NCLOB är nu mappad till NVARCHAR(16777216)
  • CLOB är nu mappad till VARCHAR(16777216)

Nya datatyper som stöds

  • Stöder nu datatypen BOOLEAN (från och med DB2 för LUW 11.5).

  • Stöder nu datatypen BIGNUMERIC.

Utökat målstöd för kontrolltabellen DDL History

I tidigare versioner av Gateway för dataflytt stöddes kontrolltabellen DDL History endast med Databricks- och Microsoft Fabric-mål. Denna version introducerar stöd för följande ytterligare kopplingar till mål:

  • Amazon Redshift
  • Amazon S3
  • Google Cloud-lagring
  • Snowflake

Se även: DDL-historik

Stöd för att använda en icke-superuser med Google Cloud SQL för PostgreSQL

Från och med den här versionen är det nu möjligt att ange ett icke-superuserkonto vid replikering från Google Cloud SQL för PostgreSQL

Se även: Använda ett konto utan superuser-rollen

Nyligen certifierade plattformar och drivrutinsversioner

  • 15.4 LTS

  • 23ai

    Anteckning om information
    • Oracle 23ai källa och mål är endast certifierad med Oracle Standard Edition.
    • Oracle 23ai källa stöds endast med TDE-kryptering.
  • Vid flytt av data till Databricks krävs nu Simba Spark ODBC Driver 2.8.2 eller senare. Kunder måste antingen köra installationsverktyget för drivrutinen eller installera drivrutinen manuellt.

    Se också: Installation av drivrutin

Support upphört

Support för följande databasversioner har upphört:

  • PostgreSQL 12.x
  • IBM DB2 for z/OS: z/OS 2.4
  • Databricks 9.1

Lösta problem

  • När replikeringssättet var inställt på Lagra ändringar och tabellen innehöll en .INCLUDE-kolumn, kunde inte __CT-tabellen skapas på målet.

  • Uppgiften misslyckades och felmeddelandet "Ingen licens för databas" visades när den hemliga nyckeln för Azure Data Lake Storage hade löpt ut.

  • Äldre filer raderas inte när en ny uppgift kördes. Detta kunde leda till att uppgiften misslyckades på grund av att poster inte kopierades eller inte matchade varandra.

     

  • Felet "funktionen stöds inte: kan inte välja användardefinierad typ" uppstod vid val av en användardefinierad tabell för replikering. Problemet löstes genom att utesluta användardefinierade tabeller (som inte stöds) från tabellväljaren.

  • Felet "Konvertering misslyckades" kunde ibland uppstå vid återställning efter kopplingsfel som uppstått under CDC.

  • När LOB-stödet inaktiverades misslyckades CDC med meddelandet "inte tillräckligt med datakolumner" när man försökte infoga ändringen i __ct-tabellen. Det här felet uppstod vid arbete i läget "Lagra ändringar", det enda läge tillgängligt för mellanlagring.

  • Under CDC, vid replikering av en "NOT NULL"-kolumn med datatyp mediumtext, kunde uppgiften ibland misslyckas med följande fel:

    A NOT NULL constraint violation occurred on LOB column from MySQL source

  • Vid infogning av en VARCHAR-kolumn uppstod följande trunkeringsfel:

    String or binary data would be truncated while reading column of type 'VARCHAR'

    Problemet löstes genom att multiplicera VARCHAR-kolumnen i Microsoft Fabric.

11 maj 2026
2024.5.54 Standard 21 januari 2025

Stöd för specificering av ytterligare kopplingsegenskaper för ODBC och JDBC har lagts till i Snowflakes målkoppling.

Mer information finns i Ytterligare kopplingsegenskaper.

  • När en primärnyckel ändrades i källan uppdaterades inte metadata för målet efter en omladdning.

  • När du skapar och kör en ny uppgift raderas inte filer som finns kvar från tidigare uppgifter från tabellens plats.

  • Att försöka ansluta till en SAP HANA-källa med hjälp av loggbaserad CDC skulle resultera i följande fel:

    Cannot select user-defined type

25 augusti 2025

2024.5.41

Patch

19 december 2024

Denna patch löser följande problem:

  • Tomma strängar kommer nu att citeras i CSV-filen för att skilja dem från NULL-värden.

  • En felmatchning mellan käll- och måldata skulle kunna uppstå i vissa scenarier.

  • Om du avaktiverar LOB-stöd i mellanlagringsuppgiften skulle CDC misslyckas med följande fel (utdrag):

    Cannot write to '<name>__ct', not enough data columns

  • Att tillämpa ändringar på målet efter att återställningen efter ett kopplingsfel kan ibland misslyckas med felet "Conversion failed".

25 augusti 2025

2024.5.35

Patch

10 december 2024

Denna patch löser följande problem:

  • Under en lagringsuppgift konverterades datatypen NVARCHAR(3500) felaktigt till VARCHAR(10500) istället för till VARCHAR(8000) (det högsta tillåtna), vilket resulterade i ett fel.

  • När datatabellen innehöll en GRAPHIC-datatyp med kodsidan 941 (japanska), uppstod följande fel (utdrag):

    Unexpected CCSID '941' in column 'PNTNM'

25 augusti 2025

2024.5.32

Patch

Den 26 november 2024

Efter att ha uppdaterat användarnamnet och lösenordet i Workday Reports källkoppling och sedan laddat om uppgiften, uppstod felet "Ogiltigt användarnamn eller lösenord" trots att uppgifterna var korrekta. Detta problem är nu löst.

25 augusti 2025

2024.5.31

Patch

19 november 2024

Denna patch löser följande problem:

Oracle Java Standard Edition 17.0.8, som levereras med Gateway för dataflytt, har flera kända sårbarheter. Denna patch ersätter 17.0.8 med 17.0.12 och löser därmed problemen.

Under CDC skulle för varje ändring flera INSERT-åtgärder läggas till i den associerade _ct-tabellen (i stället för bara en). Detta skulle avsevärt öka antalet poster i _ct-tabellen.

25 augusti 2025

2024.5.28

Standard

12 november 2024 Tillhandahåller nödvändig funktionalitet för funktionen Schema Evolution som snart kommer att lanseras.

25 augusti 2025

2024.5.27

Patch

5 november 2024

Denna patch löser följande problem:

Den 14 augusti 2024 utfärdade Snowflake ett säkerhetsråd om Snowflake JDBC-drivrutiner >= 3.2.6 & <= 3.19.1, av vilka vissa användes med tidigare versioner av Gateway för dataflytt. Sårbarheten åtgärdades i Snowflake JDBC Driver 3.20, vilket är den version som nu installeras med installationsverktyget för drivrutinen. Befintliga kunder bör uppgradera sin drivrutin så snart som möjligt genom att följa processen för Uppdatering av drivrutinen som beskrivs i avsnittet Installation av drivrutin.

  • Vid användning av REDO-händelse 11.22 kunde det hända att INSERT saknades när flera INSERT gjordes på en komprimerad sida som inte var komprimerad före INSERT.
  • I sällsynta scenarier genererade en felaktig parsning av DELETE-händelser i REDO-loggen en "DELETE-händelsen i REDO-loggen innehåller en okänd struktur"-varning, följt av olika problem.

Instruktionerna i YAML-filen uppdaterades för att återspegla rätt version av SAP Java-kopplingen.

När Gateway för dataflytt används för att ansluta till Snowflake-målet via en proxy, misslyckas kopplingen med följande fel:

500 Failed to connect to Data Movement Gateway

25 augusti 2025

2024.5.22

Patch

15 Oktober 2024 Denna version löser ett problem i en uppgift för Fullständig laddning + CDC-replikering, där fältet Datauppgiften uppdateras till för CDC-uppgiften visade tidsmarkören för Fullständig laddning istället för CDC-tidsmarkören/-tidsmarkörerna.

25 augusti 2025

2024.5.16

Patch

8 oktober 2024
    • Missade INSERTs kunde ibland uppstå i flera INSERT-åtgärder vid användningen av redo-händelse 11.22.
    • Efter uppgradering av Oracle 19g med patchen från juli 2024 kunde det hända att UPDATE-åtgärder inte registrerades och följande varning visades:

      A compressed row cannot be parsed

  • När uppgiftsinställningarna konfigurerades för att skapa kontrolltabellschemat misslyckades uppgiften med följande fel:

    Failed to delete directory

  • När en uppgift var schemalagd för att köras regelbundet kunde den ibland misslyckas med följande fel:

    The task stopped abnormally

  • Transformering och lagringsuppgifter kunde ibland ligga kvar i kö under en alltför lång tid.

  • Uppgifter kunde misslyckas när funktionen use_manipulation_pk_for_apply användes med replikering av Lagra ändringar.

  • Förlängde tidsgränsen för S3 till 6 timmar för att förhindra problem till följd av långa timeouts, t.ex. förlust av token för att hämta filer.

25 augusti 2025

2024-05-14

Standard

10 September 2024
  • Nyckel/par ger en mer robust autentiseringsmetod än användare/lösenord för att ansluta till Snowflake med dina servicekonton. Detta tillvägagångssätt rekommenderas för arbetsbelastningar som dataladdning (replikering eller mellanlagring) och transformeringar.

  • I tidigare versioner kunde uppdatering av metadata på en befintlig datauppsättning eller en nyligen tillagd datauppsättning ibland misslyckas och ett fel uppstod. Den här förbättringen säkerställer att metadata kan hämtas från flera tabeller parallellt utan problem.

  • När en källtabell innehöll en kolumn med datatypen DECIMAL, som DECIMAL (38, 20), misslyckades förberedelsen av datalagringsuppgiften i Google BigQuery med följande fel (utdrag):

    Column <n> in <table name> has incompatible types: STRING, BIGNUMERIC at [93:1]

    Problemet löstes genom att källdatatypen DECIMAL mappades som DECIMAL i Google BigQuery.

  • Ändringar av en befintlig schemaregel i en datauppgift ledde till följande fel:

    QRI SQL error not implemented

  • När en mellanlagringsuppgift kopplad till en SAP-applikationskälla förbereddes slutfördes uppgiften, men följande fel rapporterades i loggfilen repsrv.log:

    Invalid object name 'hk1./QTQVC/QRI'

25 augusti 2025

2024.5.7

Standard

6 augusti 2024
  • Om en metadataändring skedde tidigare släpptes alla tabeller och återskapades även om metadataändringen inte påverkade alla tabeller. Nu släpps och återskapas bara ändrade tabeller vilket förbättrar prestanda.

  • Tabeller som skapas i källdatabasen under replikeringsdatauppgiften och matchar det ingående mönstret registreras nu automatiskt under CDC (Change data capture).

    • Vid läsning av flera transaktioner från Microsoft SQL Server (MS-CDC) bevarade Qlik Talend Data Integration transaktions-ID och tidsmarkör för enbart den första transaktionen. På målet gav detta intryck av att posterna alla ver del av en enda transaktion. Nu bevarar Qlik Talend Data Integration ursprungligt transaktions-ID och tidsmarkör för varje enskild post. Det är till hjälp för kunder som vill använda rubrikkolumner för transaktions-ID och tidsmarkör i Ändra tabeller.

    • Tidigare kodades bytes in transaktions-ID i omvänd ordning. Från denna version kodas bytes i korrekt ordning. Information: Kkunder som hellre vill behålla nuvarande beteende kan göra det med interna parametrar. Kontakta Qlik-support för mer information.

  • Qlik Talend Data Integration har nu stöd för att cachelagra SHA-2 instickbar autentisering (caching_sha2_password) vid arbete med MySQL-källor eller -mål, antingen lokalt eller i molnet. I föregående versioner fanns endast stöd för Native Pluggable Authentication (mysql_native_password).

  • Datatyperna BYTES och BLOB kommer nu att mappas till VARBYTE på Amazon Redshift istället för VARCHAR.

    • PostgreSQL 16.x

    • MySQL 8.1
    • IBM DB2 för z/OS 3.1
    • PostgreSQL 16.x
    • MySQL 8.1
    • Databricks 14.3 LTS
    • SQL Server ODBC Driver 18.3

Support för följande databasversioner har upphört:

  • Alla Oracle-versioner och -drivrutiner före Oracle 19.x
  • Microsoft SQL Server 2014
  • MySQL 5.7
  • PostgreSQL 11
  • IBM DB2 för LUW 10.5
  • IBM DB2 för z/OS: z/OS 2.3
  • När en registrerad klusterdokumentändring raderade alla rader i sina registrerade tabeller uppstod saknad DELETE-åtgärd och överflödiga försäkransmeddelanden.

  • Uppdaterat Microsoft Authentication Library för Java (MSAL4J) och Bouncy Castle till versioner utan kända sårbarheter.

    • Ibland misslyckades uppgiften när internt lagringsutrymme användes i Snowflake.
    • Uppgiften misslyckades om målets schemanamn var japansk katakana.
  • När en uppgift med en Oracle-källa återupptogs fortsatte uppgiften vänta på en raderad Archived Redo Log i stället för att misslyckas med passande fel.

25 augusti 2025

2023.11.23

Standard

26 juli 2024
  • Från och med den här versionen kommer Snowflakes metadataschema (för mellanlagrade filer) kommer att skapas om det inte finns.

  • Efter att en ändring hade gjorts i en regel för att Byta namn på datauppsättning (som konkatenerar tabellnamnet med schemanamnet) och en vy hade lagts till i mellanlagringsuppgiften misslyckades förbered-åtgärden med följande fel:

    QRI SQL error not implemented.

  • Uppdaterade komponenten java_file_factory till en version utan några kända sårbarheter.
  • Uppdaterade org.postgresql:postgresql till en version utan några kända sårbarheter.
  • När data flyttas till SQL Server misslyckades förbered-åtgärden när indexnamn översteg 128 tecken. Problemet löstes genom att ändra logiken så att kortare indexnamn skapas.
  • När data flyttas från SQL Server medförde ett saknat kolumnnamn i tabelldefinitionerna till en oändlig meddelandeslinga i filen repsrv.log med följande meddelande:

    mssql_resolve_sqlserver_table_column_attributes(...) failed to find column

6 februari 2025

2023.11.11

Standard

21 maj 2024
  • Stöd för samtidig hämtning av metadata för flera tabeller har lagts till.

  • Övervakningsinformationen för mellanlagrings- och replikeringsuppgifter uppdateras nu var 10:e sekund (i stället för var 60:e sekund), vilket ger en mer exakt indikation på deras aktuella status.

  • Japan stöds nu som region för Qlik Cloud-klientorganisationer.

  • Intervallet för nya försök mellan datagatewayen och Qlik Cloud ökade kontinuerlig, men återställdes aldrig (såvida inte tjänsten startades om).
  • När data flyttades från en SaaS-programkälla hamnade tabeller ibland i ett feltillstånd under laddning.
  • Uppgifter med en MySQL-källa misslyckades ibland med följande fel under CDC:

    Read next binary log event failed; mariadb_rpl_fetch error 0 Error reading binary log.

  • Tidigare loggades CDC-granskningshändelser bara för mellanlagringsuppgifter. Nu loggas de även för replikeringsuppgifter.
  • När data flyttades från SQL Server (MS-CDC) tog det ibland flera timmar för uppgifter med många tabeller att starta.
  • När källtabellen innehöll CLOB-kolumner och värdet för "Begränsa LOB-storlek" överskred 10 240 misslyckades Snowflake med följande fel:

    Invalid character length: 0

Fastställs när nästa stora huvudversion publiceras.
2023.11.4

Standard

12 mars 2024

Kunder kan nu installera Gateway för dataflytt på Red Hat 9.x eller på valfri motsvarande och kompatibel Linuxdistribution.

Konfigurera Gateway för dataflytt

Kommandona för att stoppa, starta och kontrollera statusen för Gateway för dataflytt-tjänsten har ändrats.

Gateway för dataflytt service commands

  • Datatypen BOOLEAN som mappades till VARCHAR(1) i i Amazon Redshift kommer nu att mappas till BOOLEAN.
  • Datatyperna BYTES och BLOB som mappades till VARCHAR(1) i i Amazon Redshift kommer nu att mappas till VARBINARY (längd).

I det här avsnittet listas databaser, databasversioner och drivrutinsversioner som nyligen fått stöd.

  • Datakällversioner och -utgåvor som nyligen fått stöd

    Följande datakällversioner stöds nu:

    • Azure-databas for MySQL - Flexible Server (stöds via MySQL-källkopplingen)
    • MariaDB 10.4 - 10.11 (tidigare 10.4 och 10.5)
  • Måldataplattformar och -utgåvor som nyligen fått stöd

    Följande måldataversioner stöds nu:

    • Azure-databas for MySQL - Flexible Server (stöds via MySQL-målkopplingen)
    • Databricks: Databricks 13.3 LTS and Serverless SQL Warehouse
  • SAP HANA-drivrutinsversion som nyligen fått stöd

    Kunder med en SAP HANA-källa som vill installera Gateway för dataflytt på Red Hat Linux 9.x måste installera SAP HANA ODBC 64-bits drivrutinsversion 2.0.19 eller senare.

Det här avsnittet ger information om databasversioner som inte längre stöds.

  • Stödet för följande datakällversioner har upphört:

    • Oracle 11.x
    • SAP HANA 1.0
  • Om Gateway för dataflytt installerades utan att ett serverlösenord angavs kunde inte URL:erna för klientorganisationen och proxyn konfigureras i ett enda kommando.
  • Om data flyttades från en Salesforce-datakälla (SaaS-program) skrevs ett stort antal onödiga varningar ut, vilket påverkade dataladdningsprestandan.
  • Om ett fel inträffade när ändringar för en av tabellerna hämtades under hämtning av ändringar för en SaaS-programdatakälla inaktiverades den tabellen och togs bort från pipelinen. När ett fel påträffas nu kommer uppgiften att försöka hämta ändringarna upp till tre gånger innan tabellen inaktiveras.
Fastställs när nästa stora huvudversion publiceras.
2023.5.16

Standard

9 januari 2024

Vi fortsätter att utöka målen som stöds för replikeringsprojekt i Qlik Cloud Data Integration. Förutom Amazon S3 kan du nu välja Azure Data Lake Storage (ADLS) och Google Cloud Storage (GCS) för datasjöleverans som antingen Parquet-, JSON- eller CSV-filformat.

  • Kopplingen till IBM DB2 för LUW fungerade inte när storleken på de filer som behövs för kopplingen (till exempel SSL-klientcertifikatet och keystore-filen) överskred 4 kB.

  • DB2-drivrutinsinstallationen misslyckades när verktyget för installation av drivrutiner användes.

7 september 2024

2023.5.15

Standard

12 december 2023

Microsoft Fabric sällar sig till den ständigt växande listan över datalager som kan användas som mål i datapipelineprojekt.

Uppdaterade drivrutinen för Snowflake i verktyget för installation av drivrutiner.

7 september 2024

2023.5.10

Standard

31 oktober 2023

En privat anslutning kan användas för att säkerställa att din datatrafik förblir säker och kompatibel. Den förenklar både nätverkshanteringen och säkerheten för ditt VPC (Virtual Private Cloud) utan behovet att öppna inkommande brandväggsportar, proxy-enheter eller routing-tabeller. Qlik Cloud Data Integration har redan stöd för privata anslutningar till Snowflake-, Microsoft SQL Server- och Amazon S3-datapipelinemål. Från och med den här utgåvan kan kunder dessutom använda privata anslutningar när du flyttar data till Databricks, Microsoft Azure Synapse, Google BigQuery och Amazon Redshift.

  • Alla PostgreSQL-baserade datakällor – Stöd för flerområdesdatatyp: Följande flerområdesdatatyper stöds nu med alla PostgreSQL-baserade datakällor (lokala och moln).

    • INT4MULTIRANGE
    • INT8MULTIRANGE
    • NUMMULTIRANGE
    • TSMULTIRANGE
  • AWS Aurora Cloud för PostgreSQL-datakälla – Rollstöd för icke-superuser: Den användare som angivits i PostgreSQL-anslutningen behöver inte längre ha superuser-rollen för att flytta data från en AWS Aurora Cloud for PostgreSQL-datakälla. Detta är särskilt användbart för organisationer med företagssäkerhetspolicyer som hindrar dem från att ge superuser-åtkomst till icke-behöriga användare.

Kunder som flyttar data från en Microsoft Azure SQL-datakälla (MS-CDC) kan nu använda en Geo Replica-databas.

Qlik Cloud Data Integration stöder nu läsning av data från Oracle-krypterade tabellutrymmen och krypterade kolumner under CDC.

Qlik Cloud Data Integration har nu stöd för klientorganisationer i regioner i Tyskland och Storbritannien.

Det här avsnittet listar versioner av databaser och drivrutiner som nyligen fått stöd.

  • Datakällversioner som nyligen fått stöd Följande datakällversioner stöds nu:

    • Microsoft SQL Server 2022
    • Oracle 21c
    • PostgreSQL 15.x
    • DB2 13.1 (vid användning av IBM DB2 för z/OS)
    • IBM DB2 för iSeries 7.5
  • Måldataplattformsversioner som nyligen fått stöd. Följande måldataversioner stöds nu:

    • Databricks (molnlagring): Databricks 12.2 LTS och Databricks SQL Serverless
  • Drivrutinsversioner. Det finns nu stöd för följande ODBC-drivrutinsversioner:

    • IBM Data Server Client 11.5.8 för IBM DB2 för z/OZ och IBM DB2 för LUW
    • Simba ODBC-drivrutin 3.0.0.1001 för Google Cloud BigQuery
    • MySQL ODBC Unicode-drivrutin 64-bit 8.0.32

Kunder som flyttar data till eller från Microsoft SQL Server måste uppgradera sin SQL Server ODBC-drivrutinsversion till 18.x eller senare. Observera att datafel kan inträffa om du fortsätter att använda SQL Server ODBC-drivrutin 17.x. Drivrutinen kan antingen uppgraderas med verktyget för drivrutinsinstallation eller manuellt. Se Konfigurering av drivrutiner för instruktioner.

Det här avsnittet ger information om databasversioner som inte längre stöds.

  • Databasversioner som inte längre stöds. Stödet för följande datakällversioner har upphört:

    • PostgreSQL 10
    • MySQL 5.6
    • MariaDB 10.3
  • Måldataplattformsversioner som inte längre stöds. Stödet för följande datamålversioner har upphört:

    • Databricks 9.1 LTS

7 september 2024

2022.11.74

Standard

15 augusti 2023

Vi tillämpar en molnet-först-metod som möjliggör snabb innovation och användning. Men det innebär inte att vi bara är för molnet. Som en del av vårt fortsatta arbete med att förbättra det långsiktiga värdet för våra kunder är vi glada över att presentera ett nytt användningsfall för replikering när dataprojekt skapas. Det nya användningsfallet för replikering är i tillägg till den befintliga möjligheten att skapa datapipelines för alla dina dataintegreringsbehov, till exempel modernisering av datalager.

Replikeringsprojektet har stöd för datareplikering i realtid från datakällor som stöds till ett mål som stöds.

Från och med den här senaste versionen är det första målet med stöd för replikering av data i realtid Microsoft SQL Server. Förutom stöd för Microsoft SQL Server lokalt stöds även följande molnleverantörer:

  • På plats
  • Amazon RDS
  • Google Cloud
  • Microsoft Azure (Microsoft Azure Managed Instance och Microsoft Azure Database)

Kunder som flyttar data till Microsoft Azure Synapse Analytics måste uppgradera sin SQL Server ODBC-drivrutinsversion till 18.x eller senare. Observera att datafel kan inträffa om du fortsätter att använda SQL Server ODBC-drivrutin 17.x. Drivrutinen kan antingen uppgraderas med verktyget för drivrutinsinstallation eller manuellt. Se Konfigurering av drivrutiner för instruktioner.

Ett nytt alternativ Ladda data från källa har införts. Med det kan kunder läsa sina data direkt från källan under Fullständig laddning, i stället för att använda mellanlagrade data.

Mer information om det här alternativet inklusive användningsfall finns i Inställningar för mellanlagring.

Gateway för dataflytt 2022.11.74 omfattar uppdaterade CA-certifikat, vilka krävs vid autentisering av Qlik Cloud-klientorganisationen. De uppdaterade CA-certifikaten tillhandahåller också stöd för regionerna Irland och Frankfurt. Därför måste kunder med Qlik Cloud-klientorganisationer i Irland eller Frankfurt som vill använda Qlik Cloud Data Integration uppgradera till den här versionen.

Mellanlagringsdata om uppgifter från en Oracle-källa misslyckades ibland när en bred tabell innehöll oanvända kolumner eller kolumner som inte stöds eller LOB-kolumner som inte replikerades.

31 april 2024

2022.11.70

Standard

28 juni 2023

I tidigare versioner behövde kunder köra kommandot "source arep_login.sh" när de installerade SAP-klienter. Från denna version behöver detta kommando inte längre köras.

Den här versionen omfattar uppdaterade CA-certifikat, vilka krävs vid autentisering av Qlik Cloud-klientorganisationen.

  • När en replikeringsuppgift på Gateway för dataflytt har misslyckats och automatiskt återställts kommuniceras inte det återställda tillståndet till mellanlagringsdatatillgången i Qlik Cloud.

  • Kryptering från början till slut för Gateway för dataflytt aktiverades inte som standard och styrdes av körningsflaggor.
15 september 2023

2022.11.63

Standard

2 maj 2023

I den här versionen ingår ett verktyg för att installera drivrutiner som eliminerar behovet att installera och konfigurera drivrutiner manuellt. Med det nya verktyget förkortas installationsprocessen samtidigt som risken för användarfel minskar betydligt. När verktyget körs hämtas den nödvändiga drivrutinen automatiskt, om det går, och installeras. Om det inte går att hämta drivrutinen (för exempelvis DB2-drivrutiner krävs inloggning) är det enda du behöver göra att kopiera den till en dedikerad mapp på dataflytt-gatewaydatorn och kör verktyget.

Se Förutsättningar för ett exempel på hur man använder verktyget för installation av drivrutiner för att installera en PostgreSQL-drivrutin.

Snowflake-kopplingen har nu stöds för 4-bytes emojitecken.

PostgreSQL-kopplingen kan nu flytta data från Azure Database för PostgreSQL - Flexible Server.

PostgreSQL-kopplingen kan nu flytta data från Cloud SQL för PostgreSQL.

I den här versionen finns stöd för följande nya datakällversioner:

  • PostgreSQL 14
  • DB2 (för IBM DB2 för z/OS) 12.1
  • IBM DB2 för z/OS 2.5

Databricks 11.3 LTS

Följande datakällversioner stöds inte längre:

  • DB2 (för IBM DB2 för z/OS) 11
  • PostgreSQL 9.6
  • Microsoft SQL Server 2012
  • MariaDB 10.2

I den här versionen har följande problem lösts:

  • Oracle-datakälla: När en uppgift stoppades och återupptogs kunde uppgiften ibland misslyckas med felet: "Kunde inte ställa in strömningspositionen i kontext".
  • SAP Application-källa: Ändringar samlades inte in under mellanlagringsuppgiften.

15 september 2023

2022.5.13

Standard

19 oktober 2022

Första utgivning

2 augusti 2023

Avinstallera Gateway för dataflytt

Kör följande kommando för att avinstallera Gateway för dataflytt:

rpm -e <installation package name>

Exempel:

rpm -e qlik-data-gateway-data-movement-2023.11-1.x86_64

Om du inte känner till paketets namn kör du:

rpm -qa | grep qlik

Anteckning om varningOm du avinstallerar Gateway för dataflytt kommer alla uppgifter som för närvarande använder datagatewayen att misslyckas.

Var den här sidan till hjälp för dig?

Om du stöter på några problem med den här sidan eller innehållet på den, t.ex. ett stavfel, ett saknat steg eller ett tekniskt fel – meddela oss!