Ga naar hoofdinhoud Ga naar aanvullende inhoud

Gateway voor gegevensverplaatsing upgraden en verwijderen

In dit onderwerp wordt uitgelegd hoe u de installatie van de Gateway voor gegevensverplaatsing kunt upgraden of verwijderen. U vindt ook een tabel met de wijzigingen die in elke versie van de Gateway voor gegevensverplaatsing zijn geïntroduceerd.

Upgradeprocedure

Om uw huidige versie te verifiëren, gaat u naar de weergave Beheer > Gegevensgateways en controleert u de kolom Versie die overeenkomt met uw Gateway voor gegevensverplaatsing.

Als er een nieuwe versie beschikbaar is, wordt ! toegevoegd aan het versienummer. U kunt met de muiscursor op gaan staan voor meer informatie.

InformatieVersies worden soms als patches uitgebracht. De ! wordt alleen getoond als er een nieuwe standaardrelease beschikbaar is (in tegenstelling tot een patch-release). Om erachter te komen of een versie een patchrelease of een standaardrelease is, raadpleegt u de kolom Type in de onderstaande tabel Gateway voor gegevensverplaatsing met versiegeschiedenis.

Als de geïnstalleerde gatewayversie niet wordt ondersteund, staat Status op Gedeactiveerd en is een upgrade vereist om de gateway te activeren.

Wanneer een nieuwe versie van de Gateway voor gegevensverplaatsing rpm beschikbaar wordt, moet u deze downloaden via Beheer en de bestaande installatie upgraden.

U doet dit als volgt:

  1. Klik op op de gateway en vervolgens op Bijwerken om de nieuwe versie te downloaden.

    Ga akkoord met de klantovereenkomst en download de RPM.

  2. Open een shell-prompt en wijzig de werkdirectory in de directory die het RPM-bestand bevat.
  3. Voer de volgende opdracht uit:

    Syntaxis:

    rpm -U <rpm name>

    Voorbeeld:

    sudo rpm -U qlik-data-gateway-data-movement.rpm

  4. Start de Data Movement gateway-service:

    sudo systemctl start repagent

  5. Bevestig eventueel dat de service is gestart:

    sudo systemctl status repagent

    De status zou als volgt moeten zijn:

    Active: active (running) since <timestamp> ago

Gateway voor gegevensverplaatsing versiegeschiedenis

Versie

Type

Releasedatum

Aanzienlijke wijzigingen

Einddatum voor ondersteuning

2024.5.35

Patch

10 december 2024

Deze patch lost de volgende problemen op:

  • Tijdens een opslagtaak werd het gegevenstype NVARCHAR(3500) ten onrechte geconverteerd naar VARCHAR(10500) in plaats van VARCHAR(8000) (het toegestane maximum), wat resulteerde in een fout.

  • Wanneer de gegevenstabel een GRAPHIC gegevenstype met codepagina 941 (Japans) bevatte, trad de volgende fout op (uittreksel):

    Unexpected CCSID '941' in column 'PNTNM'

Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht.

2024.5.32

Patch

26 november 2024

Na het bijwerken van de gebruikersnaam en het wachtwoord in de Workday Reports-bronconnector en het opnieuw laden van de taak, verscheen er een foutmelding "Ongeldige gebruikersnaam of wachtwoord", ook al waren de gegevens correct. Dit probleem is nu opgelost.

Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht.
2024.5.31

Patch

19 november 2024

Deze patch lost de volgende problemen op:

Oracle Java Standard Edition 17.0.8, die wordt geleverd met Gateway voor gegevensverplaatsing, heeft verschillende bekende kwetsbaarheden. Deze patch vervangt 17.0.8 door 17.0.12, waarmee de problemen zijn opgelost.

Tijdens CDC worden er voor elke wijziging meerdere INSERT-bewerkingen toegevoegd aan de associated _ct tabel (in plaats van slechts één). Hierdoor neemt het aantal records in de _ct tabel aanzienlijk toe.

Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht.
2024.5.28

Standaard

12 november 2024 Biedt verplichte functionaliteit voor de binnenkort beschikbare functie Schema-evolutie. Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht.
2024.5.27

Patch

5 november 2024

Deze patch lost de volgende problemen op:

Op 14 augustus 2024 heeft Snowflake een beveiligingswaarschuwing uitgegeven over Snowflake JDBC-drivers >= 3.2.6 & <= 3.19.1, waarvan sommige werden gebruikt met eerdere versies van Gateway voor gegevensverplaatsing. De kwetsbaarheid is door middel van een patch verholpen in Snowflake JDBC Driver 3.20, de versie die nu wordt geïnstalleerd met het installatieprogramma van het stuurprogramma. Bestaande klanten moeten hun stuurprogramma zo snel mogelijk upgraden door de procedure Stuurprogramma bijwerken te volgen die wordt beschreven in Stuurprogramma instellen.

  • Bij het gebruik van een redo-gebeurtenis 11.22 ontstonden er ontbrekende INSERT's bij het verwerken van meerdere INSERT's op een gecomprimeerde pagina die voorafgaand aan de INSERT's niet was gecomprimeerd.
  • In zeldzame scenario's zou het onjuist parseren van DELETE-evenementen in de redo-logboekrecord een waarschuwing "De DELETE-gebeurtenis van het redo-logboek bevat een onbekende structuur" genereren, gevolgd door verschillende problemen.

De instructies in het YAML-bestand zijn bijgewerkt om de juiste versie van de SAP Java Connector weer te geven.

Bij gebruik van de Gateway voor gegevensverplaatsing om verbinding te maken met een Snowflake-doel via een proxy, mislukt de verbinding met de volgende fout:

500 Failed to connect to Data Movement Gateway

Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht.
2024.5.22

Patch

15 oktober 2024 Deze patch lost een probleem op in een taak voor volledige laden + CDC-replicatie, waarbij het veld Gegevenstaak wordt bijgewerkt naar voor de CDC-taak de tijdstempel voor volledig laden weergeeft in plaats van de CDC-tijdstempel(s). Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht.
2024.5.16

Patch

8 oktober 2024
    • Gemiste INSERT's kwamen soms voor in meerdere INSERT-bewerkingen bij gebruik van de redo-gebeurtenis 11.22.
    • Na het upgraden van Oracle 19g naar de juli 2024 patch, werden UPDATE -bewerkingen soms niet vastgelegd en werd de volgende waarschuwing getoond:

      A compressed row cannot be parsed

  • Wanneer de taakinstellingen waren geconfigureerd om het schema van de controletabel te maken, mislukte de taak met de volgende fout:

    Failed to delete directory

  • Wanneer een taak was gepland om periodiek te worden uitgevoerd, mislukte deze soms met de volgende foutmelding:

    The task stopped abnormally

  • Transformatie- en opslagtaken bleven soms buitensporig lang in de status In wachtrij staan.

  • Taken mislukten bij gebruik van de use_manipulation_pk_for_apply functievlag door replicatie met wijzigingen opslaan.

  • De S3 time-out is verlengd naar 6 uur om problemen als gevolg van langdurige time-outs te voorkomen, zoals het verliezen van het token om de bestanden te downloaden.

Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht.
2024.5.14

Standaard

10 september 2024
  • Sleutel/paar biedt een robuustere verificatiemethode dan gebruiker/wachtwoord om met uw serviceaccounts verbinding te maken met Snowflake. Deze aanpak wordt aanbevolen voor werklasten zoals gegevensladingen (replicatie- of tussenopslagtaken) en transformaties.

  • In vorige versies mislukte het vernieuwen van de metagegevens van een bestaande gegevensverzameling of een nieuw toegevoegde gegevensverzameling soms met een foutmelding. Deze verbetering zorgt ervoor dat metagegevens zonder problemen tegelijkertijd uit meerdere tabellen kunnen worden opgehaald.

  • Wanneer een brontabel een kolom met het gegevenstype DECIMAL bevatte - bijvoorbeeld DECIMAL (38, 20) - mislukte het voorbereiden van de opslagtaak in Google BigQuery met de volgende fout (fragment):

    Column <n> in <table name> has incompatible types: STRING, BIGNUMERIC at [93:1]

    Het probleem is opgelost door het brongegevenstype DECIMAL te koppelen aan DECIMAL in Google BigQuery

  • Na het aanbrengen van wijzigingen in een bestaande schemaregel in een gegevenstaak, trad de volgende fout op:

    QRI SQL error not implemented

  • Bij het voorbereiden van een tussenopslagstaak die verbinding maakt met een SAP Application-bron, wordt de taak met succes voltooid, maar wordt de volgende fout gerapporteerd in het repsrv.log logboekbestand:

    Invalid object name 'hk1./QTQVC/QRI'

Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht.
2024.5.7

Standaard

6 augustus 2024
  • Als er eerder een wijziging van de metagegevens plaatsvond, werden alle tabellen verwijderd en opnieuw gemaakt, zelfs als de wijziging geen invloed had op alle tabellen. Nu worden alleen de gewijzigde tabellen verwijderd en opnieuw gemaakt, waardoor de prestaties worden verbeterd.

  • Tabellen die zijn gemaakt in de brondatabase tijdens de replicatiegegevenstaak die overeenkomen met het opgenomen patroon, worden nu automatisch tijdens CDC (wijzigingsgegevens vastleggen) opgenomen

    • Voorheen zorgde Qlik Talend Data Integration er bij het lezen van meerdere transacties vanuit Microsoft SQL Server (MS-CDC) voor dat alleen de transactie-id en het tijdstempel van de eerste transactie werden behouden. Hierdoor leek het in het doel alsof de records deel uitmaakten van een afzonderlijke transactie. Vanaf nu behoudt Qlik Talend Data Integration de originele transactie-id en tijdstempel voor elk afzonderlijk record. Dit is praktisch voor klanten die de koptekstkolommen voor transactie-id en tijdstempel willen toepassen in wijzigingstabellen.

    • Eerder werden de bytes in de transactie-id in omgekeerde volgorde gecodeerd. Vanaf deze versie worden de bytes in de juiste volgorde gecodeerd. Klanten die liever het bestaande gedrag behouden, kunnen dit doen met behulp van interne parameters. Neem contact op met Qlik Support voor meer informatie.

  • Qlik Talend Data Integration biedt nu ondersteuning voor het cachen van SHA-2 pluggable authenticatie (caching_sha2_password) bij het werken met MySQL-bronnen of -doelen, zowel on-premises als in de cloud. In eerdere versies werd alleen systeemeigen pluggable authenticatie (mysql_native_password) ondersteund.

  • BYTES- en BLOB-gegevenstypen worden nu toegewezen aan VARBYTE op Amazon Redshift in plaats van VARCHAR.

    • PostgreSQL 16.x

    • MySQL 8.1
    • IBM DB2 for z/OS 3.1
    • PostgreSQL 16.x
    • MySQL 8.1
    • Databricks 14.3 LTS
    • SQL Server ODBC Driver 18.3

De volgende databaseversies worden niet meer ondersteund:

  • Alle Oracle-versies en -stuurprogramma's die ouder zijn dan Oracle 19.x
  • Microsoft SQL Server 2014
  • MySQL 5.7
  • PostgreSQL 11
  • IBM DB2 for LUW 10.5
  • IBM DB2 for z/OS: z/OS 2.3
  • Als een vastgelegde documentwijziging van een cluster alle rijen van de vastgelegde tabellen verwijdert, kregen gebruikers te maken met een ontbrekende DELETE-bewerking en onnodige bevestigingsberichten.

  • Microsoft Authentication Library for Java (MSAL4J) en Bouncy Castle zijn bijgewerkt naar versies zonder bekende beveiligingsproblemen.

    • De taak mislukte soms bij gebruik van interne opslag van Snowflake.
    • De taak mislukte als de naam van het doelschema in Japanse Katakana was.
  • Als een taak met een Oracle-bron werd hervat, wachtte de taak op een verwijderd gearchiveerd redo-logboek in plaats van te mislukken met de juiste fout.

Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht.
2023.11.23

Standaard

26 juni 2024
  • Vanaf deze versie wordt het Snowflake-metagegevensschema (voor tussentijds opgeslagen bestanden) gemaakt als dit nog niet bestaat.

  • Nadat een wijziging was toegepast op de regel Naam gegevensverzameling wijzigen (die de tabelnaam heeft samengevoegd met de schemanaam) en een weergave is toegevoegd aan de tussenopslagtaak, mislukte de Prepare-bewerking met de volgende fout:

    QRI SQL error not implemented.

  • Het component java_file_factory is bijgewerkt naar een versie zonder bekende beveiligingsproblemen.
  • org.postgresql:postgresql is bijgewerkt naar een versie zonder bekende beveiligingsproblemen.
  • Bij het verplaatsen van gegevens naar SQL Server, mislukte de Prepare-bewerking als indexnamen langer dan 128 tekens waren. Het probleem is verholpen door de logica te wijzigen voor het maken van kortere indexnamen.
  • Bij het verplaatsen van gegevens vanuit SQL Sever veroorzaakte een ontbrekende kolomnaam in de tabeldefinities een oneindige meldingsloop in het bestand repsrv.log, met het volgende bericht:

    mssql_resolve_sqlserver_table_column_attributes(...) failed to find column

6 februari 2025

2023.11.11

Standaard

21 mei 2024
  • Er is ondersteuning toegevoegd zodat de metagegevens voor meerdere tabellen tegelijkertijd worden opgehaald.

  • De monitoringgegevens voor de tussenopslag- en replicatietaken worden nu elke 10 seconden bijgewerkt (in plaats van elke 60 seconden) voor een nauwkeurigere indicatie van hun huidige status.

  • Japan wordt nu ondersteund als een tenantregio voor Qlik Cloud.

  • De interval voor nieuwe poging tussen de gegevensgateway en Qlik Cloud bleef regelmatig toenemen, maar werd nooit gereset (tenzij de service opnieuw werd gestart).
  • Bij het verplaatsen van gegevens vanuit een SaaS-applicatiebron ontstond bij sommige tabellen een foutstatus tijdens het opnieuw laden.
  • Taken met een MySQL-bron mislukten soms met de volgende fout tijdens CDC:

    Read next binary log event failed; mariadb_rpl_fetch error 0 Error reading binary log.

  • Eerder werden auditgebeurtenissen van CDC alleen geregistreerd voor tussenopslagtaken. Nu worden ze ook geregistreerd voor replicatietaken.
  • Bij het verplaatsen van gegevens van SQL Server (MS-CDC) duurde het soms enkele uren voordat taken met veel tabellen werden gestart.
  • Als de brontabel CLOB-kolommen bevatte en de waarde 'LOB-grootte beperken' 10240 overschreed, mislukte de replicatie naar Snowflake met de volgende fout:

    Invalid character length: 0

Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht.
2023.11.4

Standaard

12 maart 2024

Klanten kunnen nu Gateway voor gegevensverplaatsing installeren op Red Hat 9.x of een andere overeenkomende en compatibele Linux-distributie.

Gateway voor gegevensverplaatsing installeren

De opdrachten voor het stoppen, starten en controleren van de status van de Gateway voor gegevensverplaatsing-service zijn gewijzigd.

Service-instructies Gateway voor gegevensverplaatsing

  • Het BOOLEAN-gegevenstype, dat is toegewezen aan VARCHAR(1) in Amazon Redshift, wordt nu toegewezen aan BOOLEAN.
  • De BYTES- en BLOB‑gegevenstypen, die zijn toegewezen aan VARCHAR(1) in Amazon Redshift, worden nu toegewezen aan VARBINARY (length).

Deze sectie toont de nieuwe ondersteunde databases, databaseversies en stuurprogrammaversies.

  • Nieuwe ondersteunde versies en edities van gegevensbronnen

    De volgende versies van gegevensbronnen worden nu ondersteund:

    • Azure Database for MySQL - Flexible Server (ondersteund via de MySQL-bronconnector)
    • MariaDB 10.4 - 10.11 (voorheen 10.4 en 10.5)
  • Nieuwe ondersteunde versies en edities van doelgegevensplatformen

    De volgende versies van gegevensdoelen worden nu ondersteund:

    • Azure Database for MySQL - Flexible Server (ondersteund via de MySQL-doelconnector)
    • Databricks: Databricks 13.3 LTS en Serverless SQL Warehouse
  • Nieuwe ondersteunde SAP HANA stuurprogrammaversie

    Klanten met een SAP HANA-bron die Gateway voor gegevensverplaatsing willen installeren op Red Hat Linux 9.x, moeten de SAP HANA ODBC 64-bits stuurprogrammaversie versie 2.0.19 of hoger installeren.

Deze sectie biedt informatie over databaseversies waarvoor de ondersteuning eindigt.

  • De volgende gegevensbronversies worden niet meer ondersteund:

    • Oracle 11.x
    • SAP HANA 1.0
  • Als Gateway voor gegevensverplaatsing werd geïnstalleerd zonder het opgeven van een serverwachtwoord, konden de tenant- en proxy-URL's met een opdracht worden geconfigureerd.
  • Het verplaatsen van een Salesforce (SaaS application) gegevensbron zorgde voor een groter aantal redundante waarschuwingen, wat van invloed was op de laadprestaties van gegevens.
  • Als er bij het ophalen van wijzigingen voor een gegevensbron van een SaaS-applicatie een fout optrad bij het ophalen van wijzigingen voor één van de tabellen, werd die tabel onderbroken en verwijderd uit de pijplijn. Als er nu een fout optreedt, probeert de taak tot drie keer om de wijzigingen op te halen voordat de tabel wordt onderbroken.
Wordt vastgesteld wanneer de volgende grote versie wordt uitgebracht.
2023.5.16

Standaard

9 januari 2024

We blijven de ondersteunde doelen voor het Replication-project in Qlik Cloud Data Integration uitbreiden. Naast Amazon S3, kunt u nu kiezen uit Azure Data Lake Storage (ADLS) en Google Cloud Storage (GCS) voor leveringen in een datalake in de bestandsindeling Parquet, JSON of CSV.

  • De verbinding met IBM DB2 for LUW werd verbroken als de grootte van de bestanden die zijn vereist voor de verbinding (zoals het SSL-clientcertificaat en het keystore-bestand) groter was dan 4 KB.

  • De installatie van het DB2-stuurprogramma mislukte bij gebruik van het hulpprogramma voor installatie van het stuurprogramma.

7 september 2024

2023.5.15

Standaard

12 december 2023

Microsoft Fabric wordt toegevoegd aan de steeds langer wordende lijst met datawarehouses die als doel in gegevenspijplijnprojecten kunnen worden gebruikt.

Heeft de Snowflake-besturingsprogrammaversie bijgewerkt in het hulpprogramma voor installatie van stuurprogramma's.

7 september 2024

2023.5.10

Standaard

31 oktober 2023

U kunt een privéverbinding gebruiken om te garanderen dat uw gegevensverkeer veilig en compliant blijft. Dit vereenvoudigt zowel het netwerkbeheer als de beveiliging van uw VPC (virtuele privécloud) zonder dat u binnenkomende firewallpoorten moet openen, een proxy voor apparaten moet instellen of routeringstabellen nodig hebt. Qlik Cloud Gegevensintegratie biedt al ondersteuning voor privéverbindingen naar doelen van Snowflake-, Microsoft SQL Server- en Amazon S3-gegevenspijplijnen. Met deze release kunnen klanten ook privéverbindingen gebruiken als ze gegevens verplaatsen naar Databricks, Microsoft Azure Synapse, Google BigQuery en Amazon Redshift.

  • Ondersteuning van alle gegevensbronnen op basis van PostgreSQL - Multirange-gegevenstypen: De volgende multirange-gegevenstypen worden nu ondersteund met alle gegevensbronnen op basis van PostgreSQL (on-premises en de cloud).

    • INT4MULTIRANGE
    • INT8MULTIRANGE
    • NUMMULTIRANGE
    • TSMULTIRANGE
  • AWS Aurora Cloud for PostgreSQL-gegevensbron - Ondersteuning van rol niet-beheerders: De gebruiker die is opgegeven in de PostgreSQL-connector heeft niet langer de beheerdersrol nodig om gegevens te verplaatsen van een AWS Aurora Cloud for PostgreSQL-gegevensbron. Dit is met name handig voor organisaties met een bedrijfsveiligheidsbeleid waarbij beheerdersmachtigingen niet kunnen worden toegewezen aan niet-gemachtigde gebruikers.

Klanten die gegevens verplaatsen van een Microsoft Azure SQL-gegevensbron (MS-CDC) kunnen vanaf nu gebruikmaken van een Geo Replica-database.

Qlik Cloud Gegevensintegratie biedt nu ondersteuning voor het lezen van gegevens van door Oracle versleutelde tabelruimten en versleutelde kolommen tijdens CDC.

Qlik Cloud Gegevensintegratie biedt nu ondersteuning voor tenants in Duitsland en het Verenigd Koninkrijk.

Deze sectie toont nieuwe ondersteunde database- en stuurprogrammaversies.

  • Nieuwe ondersteunde gegevensbronversies. De volgende versies van gegevensbronnen worden nu ondersteund:

    • Microsoft SQL Server 2022
    • Oracle 21c
    • PostgreSQL 15.x
    • DB2 13.1 (bij gebruik van IBM DB2 for z/OS)
    • IBM DB2 for iSeries 7.5
  • Nieuwe ondersteunde versies van doelgegevensplatforms De volgende versies van gegevensdoelen worden nu ondersteund:

    • Databricks (cloudopslag): Databricks 12.2 LTS en Databricks SQL Serverless
  • Stuurprogrammaversies. De volgende versies van ODBC-stuurprogramma's worden nu ondersteund:

    • IBM Data Server Client 11.5.8 for IBM DB2 for z/OZ en IBM DB2 for LUW
    • Simba ODBC-stuurprogramma 3.0.0.1001 for Google Cloud BigQuery
    • MySQL ODBC Unicode Driver 64-bits 8.0.32

Klanten die gegevens verplaatsen naar of vanuit Microsoft SQL Server moeten hun SQL Server ODBC-stuurprogrammaversie bijwerken naar 18.x of later. Let op: door SQL Server ODBC Driver 17.x te blijven gebruiken, kunnen er gegevensfouten ontstaan. Het stuurprogramma kan handmatig worden bijgewerkt of met behulp van het stuurprogramma-installatieprogramma. Raadpleeg Installatie stuurprogramma voor instructies.

Deze sectie biedt informatie over databaseversies waarvoor de ondersteuning eindigt.

  • Gegevensbronversies die niet meer worden ondersteund. De volgende gegevensbronversies worden niet meer ondersteund:

    • PostgreSQL 10
    • MySQL 5.6
    • MariaDB 10.3
  • Versies van doelgegevensplatforms die niet meer worden ondersteund. De volgende gegevensdoelversies worden niet meer ondersteund:

    • Databricks 9.1 LTS

7 september 2024

2022.11.74

Standaard

15 augustus 2023

We volgen een 'cloud-first'-aanpak om snelle innovaties en toepassingen mogelijk te maken. Dit betekent niet dat we 'cloud-only' zijn. Als onderdeel van onze voortdurende inzet om de langetermijnwaarde voor onze klanten te verbeteren, zijn we verheugd om onze nieuwe release aan te kondigen van een nieuwe gebruikscase voor Replication voor het maken van gegevensprojecten. De nieuwe gebruikscase voor Replication is een aanvulling op de bestaande mogelijkheid om gegevenspijplijnen te maken voor al uw behoeften voor gegevensintegratie, zoals het moderniseren van uw datawarehouse.

Het replicationproject ondersteunt realtime replication van ondersteunde gegevensbronnen naar een ondersteund doel.

Vanaf deze laatste release is Microsoft SQL Server het eerste doel dat het realtime repliceren van gegevens ondersteunt. Naast dat Microsoft SQL Server on-premises ondersteuning biedt, worden de volgende cloudproviders ook ondersteund:

  • On-premises
  • Amazon RDS
  • Google Cloud
  • Microsoft Azure (Microsoft Azure Managed Instance en Microsoft Azure Database)

Klanten die gegevens verplaatsen naar Microsoft Azure Synapse Analytics moeten hun SQL Server ODBC Driver-versie bijwerken naar 18.x of later. Let op: door SQL Server ODBC Driver 17.x te blijven gebruiken, kunnen er gegevensfouten ontstaan. Het stuurprogramma kan handmatig worden bijgewerkt of met behulp van het stuurprogramma-installatieprogramma. Raadpleeg Installatie stuurprogramma voor instructies.

Een nieuwe optie Gegevens laden vanuit bron is geïntroduceerd, waarmee klanten hun gegevens direct vanuit de bron kunnen lezen met behulp van volledig laden, in plaats van gecachete gegevens te moeten gebruiken.

Voor meer informatie over deze optie en gebruikstoepassingen, gaat u naar Instellingen voor tussenopslag.

Gateway voor gegevensverplaatsing 2022.11.74 bevat bijgewerkte CA-certificaten die nodig zijn voor verificatie van de Qlik Cloud-tenant. De bijgewerkte CA-certificaten bieden tevens ondersteuning voor de regio's Ierland en Frankfurt. Daarom moeten klanten met Qlik Cloud-tenants in Ierland of Frankfurt die Qlik Cloud Gegevensintegratie willen gebruiken, upgraden naar deze versie.

Taken waarmee gegevens van een Oracle-bron tijdelijk worden opgeslagen mislukken soms als een brede tabel niet-gebruikte of niet-ondersteunde kolommen bevat of LOB-kolommen bevat die niet zijn gerepliceerd.

31 april 2024

2022.11.70

Standaard

28 juni 2023

In voorgaande versies moesten klanten de opdracht "source arep_login.sh" uitvoeren bij de installatie van SAP-clients. Vanaf deze versie is het niet meer nodig om deze opdracht uit te voeren.

Deze versie bevat bijgewerkte CA-certificaten die nodig zijn voor verificatie van de Qlik Cloud-tenant.

  • Als een replicatietaak in Gateway voor gegevensverplaatsing is mislukt en automatisch is hersteld, wordt de herstelde staat niet gecommuniceerd met de tijdelijke gegevensasset in Qlik Cloud.

  • End-to-endversleuteling voor de Gateway voor gegevensverplaatsing wordt niet standaard ingeschakeld en wordt aangestuurd door runtimevlaggen.
15 september 2023

2022.11.63

Standaard

2 mei 2023

In deze versie wordt een installatieprogramma voor stuurprogramma's geïntroduceerd waardoor stuurprogramma's niet meer handmatig hoeven te worden geïnstalleerd en geconfigureerd. Het nieuwe hulpprogramma verkort het installatieproces en vermindert de kans op menselijke fouten drastisch. Zodra het hulpprogramma wordt uitgevoerd, wordt het vereiste stuurprogramma automatisch gedownload en waar mogelijk geïnstalleerd. Als het stuurprogramma niet kan worden gedownload (omdat DB2-stuurprogramma's bijvoorbeeld vereisen dat de gebruiker zich aanmeldt), downloadt u het stuurprogramma en kopieert u het naar een speciale map op machine voor de gateway voor gegevensverplaatsing. Hiervandaan voert u het hulpprogramma uit.

Voor een voorbeeld van hoe u een PostgreSQL-stuurprogramma installeert met behulp van het installatieprogramma voor stuurprogramma's, zie Vereisten

De Snowflake-connector biedt nu ondersteuning voor emoticons van 4 bytes.

De PostgreSQL-connector kan nu gegevens verplaatsen vanuit de Azure Database for PostgreSQL - Flexibele server.

De PostgreSQL-connector kan nu gegevens verplaatsen vanuit Cloud SQL for PostgreSQL.

Deze versie introduceert ondersteuning voor de volgende nieuwe gegevensbronversies:

  • PostgreSQL 14
  • DB2 (voor IBM DB2 voor z/OS) 12.1
  • IBM DB2 voor z/OS 2.5

Databricks 11.3 LTS

De volgende gegevensbronversies worden niet meer ondersteund:

  • DB2 (voor IBM DB2 voor z/OS) 11
  • PostgreSQL 9.6
  • Microsoft SQL Server 2012
  • MariaDB 10.2

Deze versie biedt oplossingen voor de volgende problemen:

  • Oracle gegevensbron: Wanneer een taak werd gestopt en hervat, mislukte de taak soms met de foutmelding "Failed to set stream position on context".
  • SAP-applicatiebron: Veranderingen werden niet vastgelegd tijdens de tussenopslagtaak.

15 september 2023

2022.5.13

Standaard

19 oktober 2022

Eerste release

2 augustus 2023

Gateway voor gegevensverplaatsing verwijderen

Voer de volgende opdracht uit om Gateway voor gegevensverplaatsing te verwijderen:

rpm -e <installation package name>

Voorbeeld:

rpm -e qlik-data-gateway-data-movement-2023.11-1.x86_64

Als u de pakketnaam niet weet, voer dan het volgende uit:

rpm -qa | grep qlik

WaarschuwingDoor het verwijderen van de Gateway voor gegevensverplaatsing zullen alle taken mislukken die momenteel de gegevensgateway gebruiken.

Was deze pagina nuttig?

Als u problemen ervaart op deze pagina of de inhoud onjuist is – een typfout, een ontbrekende stap of een technische fout – laat het ons weten zodat we dit kunnen verbeteren!