Aggiornamento e disinstallazione di Gateway Data Movement | Guida di Qlik Cloud
Vai al contenuto principale Passa a contenuto complementare

Aggiornamento e disinstallazione di Gateway Data Movement

Questo argomento spiega come aggiornare o disinstallare l'installazione di Gateway Data Movement. Fornisce inoltre una tabella che elenca le modifiche introdotte in ogni versione di Gateway Data Movement.

Procedura di aggiornamento

Per verificare la versione corrente utilizzata, andare a Amministrazione > Gateway dati e verificare la colonna Versione corrispondente al Gateway Data Movement utilizzato.

Se è disponibile una nuova versione, al numero di versione verrà aggiunto !. È possibile passare il mouse sopra Informazioni per ottenere maggiori informazioni.

Nota informaticaLe versioni vengono talvolta rilasciate come patch. Il simbolo ! verrà mostrato solo se è disponibile una nuova release standard (al contrario di una release patch). Per scoprire se una versione è una release patch o una release standard, consultare la colonna Tipo nella tabella Cronologia delle versioni di Gateway Data Movement qui sotto.

Se la versione del gateway installata non è supportata, lo Stato sarà Disattivato e sarà necessario un aggiornamento per attivare il gateway.

Ogni volta che diventa disponibile una nuova versione dell'rpm di Gateway Data Movement, è necessario scaricarla da Amministrazione e aggiornare l'installazione esistente.

Per fare ciò:

  1. Scaricare la nuova versione facendo clic su Altro sul gateway e quindi su Aggiorna.

    Accettare il contratto cliente e procedere al download dell'RPM.

  2. Aprire un prompt della shell e cambiare la directory di lavoro nella directory contenente il file RPM.
  3. Eseguire il seguente comando:

    Sintassi:

    rpm -U <rpm name>

    Esempio:

    sudo rpm -U qlik-data-gateway-data-movement.rpm

  4. Avviare il servizio gateway di Data Movement:

    sudo systemctl start repagent

  5. Facoltativamente, confermare che il servizio sia stato avviato:

    sudo systemctl status repagent

    Lo stato dovrebbe essere il seguente:

    Active: active (running) since <timestamp> ago

Gateway Data Movement cronologia delle versioni

Versione

Tipo

Data di rilascio

Modifiche significative

Data di fine supporto

2025.11.23 Standard 11 marzo 2026

La funzionalità di caricamento parallelo ora supporta la destinazione Databricks.

Replica in parallelo di segmenti del set di dati

La tabella di controllo attrep_ddl_history (Cronologia DDL) contiene una cronologia delle modifiche DDL che si sono verificate sull'origine durante la replica verso la destinazione.

Ora sono supportati i seguenti endpoint di destinazione:

  • Google BigQuery
  • Google Cloud AlloyDB SQL per PostgreSQL
  • Google Cloud SQL per PostgreSQL
  • PostgreSQL (in loco)

Cronologia DDL

Quando si utilizzano le tabelle di modifica con il formato Parquet, la colonna di intestazione [header]__change_mask ora riempie di zeri a sinistra (invece che a destra), per allinearsi alla regola little endian di memorizzazione dei byte in ordine inverso.

Endpoint di destinazione interessati:

  • Amazon S3

  • Google Cloud Storage

Tabelle di modifica

  • Destinazione Kafka: 4.0.x

  • Sorgente IBM z/OS: 3.2

  • Driver Microsoft ODBC 18.5
  • MySQL 8.4

Il supporto per Microsoft Azure Database per MySQL e Microsoft Azure Database per PostgreSQL, ufficialmente ritirati da Microsoft, è stato sospeso.

  • Destinazione Databricks: 10.4 LTS e 11.3 LTS

  • MariaDB origine e destinazione: 10.5

  • PostgreSQL origine e destinazione: 13.x

  • MySQL origine e destinazione: 8.1

  • Microsoft ODBC Driver 18.3

Problemi risolti

  • Le attività configurate per utilizzare una sorgente SAP (Applicazione) con un processo di backend che generava eventi auto-commit, a volte andavano in crash dopo aver ricaricato una tabella.

  • Nella replica omogenea, quando si lavora in modalità “Applicazione transazionale” o in modalità “Applicazione ottimizzata batch” che passava alla modalità uno-a-uno, si verificava un errore “0 righe interessate” quando una colonna DATETIME faceva parte della chiave primaria sulla destinazione.

  • L'attività Oracle va in crash durante il caricamento completo quando una tabella contiene una colonna long raw e la dimensione massima lob è maggiore o uguale a 64K.

  • Durante un ricaricamento della tabella, i processi CDC SAP a lunga esecuzione vengono talvolta annullati. Ciò comporterebbe uno stato di errore recuperabile in cui lo scaricamento non è mai stato completato.

  • I seguenti componenti sono stati aggiornati a causa di vulnerabilità note:

    • JRE aggiornato da 17.0.17 a 17.0.18
    • org.eclispe.jetty:jetty-io aggiornato da 11.0.25 a 11.0.26

    • org.apache.logging.log4j:log4j-core aggiornato da 2.23.1 a 2.25.3

  • Il seguente errore si verificava durante il CDC quando veniva definito un filtro per una tabella:

    Invalid value for parameter "I_DIMNAME"

  • Il Delta smetteva di funzionare se l'attività veniva interrotta e ripresa mentre una delle tabelle era in stato di caricamento.

    • Durante il caricamento completo, quando ci si connette alla cartella di staging S3, l'attività a volte falliva con il seguente errore:

      Unable to execute HTTP request: Connect to s3.amazonaws.com:443

      Il problema è stato risolto implementando un meccanismo di tentativi multipli per la connessione alla cartella S3 quando la prima connessione non ha successo.

    • Il privilegio CREATE SCHEMA sarebbe richiesto anche quando lo schema esisteva già.

  • A volte si verificava una perdita di dati nelle colonne LOB e una replica dei dati errata durante il CDC quando la dimensione LOB era impostata su illimitata nelle impostazioni dell'attività.

  • Il mancato caricamento del file CSV nella tabella Net Changes restituiva un errore recuperabile (con conseguente ciclo infinito) invece di passare all'applicazione uno-a-uno.

  • Quando lo schema della sorgente e della destinazione si trovavano nella stessa istanza MySQL e la replica includeva una tabella di controllo, l'attività a volte andava in crash con un errore "Process crashed with signal 11".

  • Durante il CDC, l'attività a volte leggeva le stesse voci WAL più e più volte, con il risultato che nessun dato veniva acquisito.

    • Si verificava un errore durante la decompressione di un log delle transazioni che conteneva blocchi crittografati. Il problema è stato risolto lasciando il log compresso in tali casi.

    • Venivano mostrati errori ridondanti quando si utilizzava una cartella di backup alternativa, a causa di un controllo di convalida non necessario per i file esistenti.

    • L'attività a volte andava in crash dopo l'invocazione di DBCC Lookup.

2025.5.41 Patch 15 febbraio 2026 Risolto un problema con lo stato CDC non visualizzato nel monitor. 11 settembre 2026
2025.5.40 Standard 10 febbraio 2026

La nuova versione di Gateway Data Movement introduce il supporto per il connettore di destinazione Kafka. Replica facilmente i tuoi dati da qualsiasi sorgente supportata direttamente in Kafka on-premise o Amazon MSK, garantendo trasferimenti affidabili e tolleranti ai guasti che mantengono le tue applicazioni agili e informate. Che tu stia mantenendo la coerenza dei dati tra i sistemi o alimentando l'analisi, questo connettore offre una replica a bassa latenza con una configurazione minima.

Per ulteriori informazioni, vedere Kafka destinazione

  • Durante la replica di un insieme di dati da uno schema MySQL a uno schema MySQL diverso in esecuzione sulla stessa istanza del server MySQL, e includendo una tabella di controllo nella replica, il CDC falliva con il seguente errore:

    Process crashed with signal 11

  • La ripresa di un'attività mentre una tabella era ancora in caricamento completo causava il fallimento del processo di estrazione e la sospensione della tabella.

15 agosto 2026
2025.5.32 Patch 13 gennaio 2026
  • Il mancato caricamento del file CSV nella tabella Qlik Net Changes restituiva un errore recuperabile (con conseguente ciclo infinito) invece di passare all'applicazione uno-a-uno.

  • Durante il caricamento completo, le attività a volte fallivano con il seguente errore a causa del rifiuto attivo della connessione da parte di Amazon:

    Unable to execute HTTP request: Connect to s3.amazonaws.com:443

    Il problema è stato risolto implementando un meccanismo di riprova con un massimo di tre tentativi prima che si verifichi l'errore.

  • Si verificava un errore durante la decompressione di un log delle transazioni che conteneva blocchi crittografati. Il problema è stato risolto lasciando il log compresso in tali casi.

  • Durante la ripresa di un'attività CDC dopo aver apportato una modifica alla sorgente, l'attività a volte falliva con il seguente errore:

    Cannot change column title from type VARCHAR(8000) to VARCHAR(3) because reducing the byte-length of a varchar is not supported.

  • Venivano mostrati errori ridondanti quando si utilizzava una cartella di backup alternativa, a causa di un controllo di convalida non necessario per i file esistenti.

10 agosto 2026
2025.5.22 Standard 25 novembre 2025

A partire da questa versione, l'attività dati creerà una chiave primaria nelle tabelle Delta Databricks di destinazione, utilizzando la parola chiave RELY. Sebbene Databricks non applichi vincoli di chiave primaria, si presume che le chiavi primarie con la parola chiave RELY non abbiano duplicati e possono quindi essere utilizzate da Databricks per l'ottimizzazione delle query.

Requisiti:

  • È necessario selezionare un catalogo nelle impostazioni del connettore

  • Databricks 14.2 o versioni successive

  • Sorgente IBM DB2 per iSeries: È stato aggiunto il supporto per i seguenti tipi di dati: BINARY-DECIMAL e ZONED-DECIMAL

  • Destinazione Databricks: Nelle versioni precedenti, i valori BYTES venivano mappati a STRING. A partire da questa versione, questi verranno mappati a VARCHAR (Lunghezza in byte)

  • Destinazione Google Cloud BigQuery: il sottotipo JSON è ora supportato dalle destinazioni Google Cloud BigQuery

La replica (caricamento completo e CDC) di partizioni e sotto-partizioni (e sotto-sotto-partizioni) da sorgenti dati basate su PostgreSQL è ora supportata per impostazione predefinita.

La destinazione Google Cloud BigQuery ora supporta la gestione degli errori relativi al troncamento dei dati. Se si verifica un errore di troncamento dei dati, è ora possibile scegliere se registrare il record nella tabella di controllo delle eccezioni (impostazione predefinita), ignorare il record, sospendere la tabella o arrestare l'attività.

Ora sono supportate le seguenti versioni per gli endpoint di origine e di destinazione:

  • MariaDB (on-premise) e Amazon RDS per MariaDB: 11.4

  • MySQL (on-premise), MySQL Percona, Google Cloud SQL per MySQL, Amazon RDS per MySQL e Microsoft Azure Database per MySQL - Flexible Server: 8.4

  • PostgreSQL (on-premise), Google Cloud SQL per PostgreSQL, Amazon RDS per PostgreSQL e Microsoft Azure Database per PostgreSQL - Flexible Server: 17.x

IBM Data Server Client 11.5.9 è ora supportato per le seguenti sorgenti DB2:

  • IBM DB2 per LUW

  • IBM DB2 per z/OS

  • Sorgenti e destinazioni obsolete: il supporto per Microsoft Azure Database per MySQL e Microsoft Azure Database per PostgreSQL, ufficialmente ritirati da Microsoft, è stato sospeso.

  • Versioni delle sorgenti obsolete: Il supporto per IBM DB2 per iSeries 7.2, che è a fine ciclo di vita, è stato sospeso.

  • Versioni driver obsolete: il supporto per IBM Data Server Client 11.5.6 è stato sospeso.

Problemi risolti

  • HSTS non era abilitato sulla macchina Qlik Data Gateway - Movimento dati.

  • L'installazione di Gateway Data Movement su Redhat versione 9.7 falliva con un errore "OPENSSL_3.4.0 not found".

  • Durante il CDC, l'attività continuava a leggere le stesse voci WAL ed elaborare la stessa posizione del flusso.

  • Dopo che un'attività CDC si è interrotta durante le modifiche (a causa di un problema di connettività, ad esempio), la ripresa dell'attività a volte portava a errori di lunghezza della riga.

  • I log di connessione sorgente non erano disponibili dopo l'esecuzione di un'attività che utilizzava un connettore Preview o Lite.

  • La scheda Monitor non mostrava un messaggio di errore quando una tabella veniva sospesa durante la fase CDC di un caricamento completo e di un'attività CDC.

13 luglio 2026
2024.11.95 Standard 4 novembre 2025

Supporto per la creazione di knowledge mart su Databricks

In precedenza i knowledge mart erano supportati soltanto su Snowflake. Ora, è possibile creare ed eseguire knowledge mart e knowledge mart basati su file anche su Databricks.

Problemi risolti:

Le attività fallivano a intermittenza durante la preparazione con il seguente errore:

The request was canceled due to the configured HttpClient.Timeout of 300 seconds elapsing.

25 maggio 2026
2024.11.90 Standard 21 ottobre 2025

Problemi risolti:

Quando la proprietà Internal metadataschema veniva definita con caratteri speciali, l'attività falliva durante il CDC.

4 maggio 2026
2024.11.84 Patch 16 settembre 2025

Problemi risolti:

  • I clienti nella regione EU-Central-1 riscontravano frequenti avvisi di produzione quando utilizzavano Gateway Data Movement.

  • Durante la replica dei dati da Jira, la tabella USERS rimaneva bloccata nello stato Queued al primo avvio, mentre le altre tabelle completavano il caricamento con successo.

  • Il monitoraggio CDC mancava dal monitor dell'attività.

  • Le attività di replica da Oracle a Oracle a volte fallivano a causa di un calcolo errato della lunghezza della stringa.

  • Il componente server Java (sqlite-jdbc) è stato aggiornato alla versione 3.47.0 a causa di una vulnerabilità nota nelle versioni precedenti.

  • Un errore "No license for database" si verificava a volte quando un'attività veniva avviata in modalità ripresa per la prima volta, senza essere stata avviata in precedenza.

  • L'aggiunta di nuovi insiemi di dati a un'attività di trasferimento con una sorgente dati Salesforce causava il fallimento dell'attività con un errore "'Table doesn't exist'".

21 aprile 2026
2024.11.78 Standard 3 settembre 2025
Nota di avviso

I clienti che utilizzano una destinazione Snowflake devono aggiornare il proprio driver Snowflake una volta completato l'aggiornamento di Gateway Data Movement. In caso contrario, le attività falliranno.

Per le istruzioni, vedere Configurazione del driver

  • Le attività di archiviazione fallivano con un errore di connessione che richiedeva il riavvio del gateway.

  • L'installazione del driver DB2 falliva quando l'accesso alla cartella /tmp era limitato.

  • Dopo l'aggiornamento alla versione 2024.11.65 di Gateway Data Movement, era necessario un tempo eccessivo per connettersi a Qlik Cloud. Il problema è stato risolto aggiungendo un token di annullamento con un timeout di due minuti.

  • Dopo l'aggiornamento a Gateway Data Movement 2024.11.67, il servizio external-data-provider (utilizzato dai connettori Lite) è andato in crash a causa di restrizioni di accesso alla cartella /tmp.

  • I seguenti componenti sono stati sostituiti con versioni successive a causa di vulnerabilità note:

    • SQLite 3.49.1

    • Java Runtime Engine 17.0.15

    • org.bouncycastle:bcpkix-fips 2.0.7 (bcpkix-fips-2.0.7.jar)

    • org.bouncycastle:bc-fips 2.0.0 (bc-fips-2.0.0.jar)

  • La connessione a SMB falliva con il seguente errore:

    SmbConnection' object has no attribute 'docs_path'

  • Durante la preparazione di un'attività per la seconda volta e se si verificava un DDL dopo la prima preparazione, l'operazione di preparazione a volte falliva con il seguente errore (estratto):

    Could not find match between landing metadata with gateway task metadata for the following tables: <name>

  • L'opzione di anteprima dati non funzionava quando si utilizzava una destinazione Microsoft SQL Server.

  • Questa versione aggiunge il supporto per l'utilizzo di Gateway Data Movement con Qlik Cloud Government DoD.

16 marzo 2026
2024.11.70 Standard 12 agosto 2025
  • Una nuova impostazione Numero di tentativi prima di restituire un errore di tabella è stata aggiunta alle impostazioni di gestione degli errori della tabella per le attività di replica e trasferimento. In precedenza, quando si verificava un errore di tabella, la tabella veniva sospesa o l'attività veniva interrotta (in base all'azione di gestione degli errori selezionata). Ciò a volte comportava la sospensione delle tabelle durante la finestra di manutenzione dell'applicazione SaaS. Con questa nuova opzione, è ora possibile determinare quante volte la tabella deve essere riprovata prima che venga attivata la politica di gestione degli errori della tabella. Questa opzione è particolarmente utile se la tua applicazione SaaS è soggetta a manutenzione periodica, poiché puoi sovrascrivere il numero predefinito di tentativi (3) in modo che la manutenzione possa essere completata senza attivare la politica di gestione degli errori della tabella.

    Gestione errori tabella

    Nota informaticaQuesta opzione verrà mostrata solo per le attività configurate con un connettore applicazione SaaS Lite o Standard.
  • Durante l'anteprima di una trasformazione SQL, i risultati includeranno ora i tipi di dati delle colonne.

    Anteprima dati

3 marzo 2026
2024.11.67 Standard 29 luglio 2025
  • È stata implementata una politica di rollover e eliminazione per i file di log di replica sulla macchina gateway. La politica di rollover impedirà ai file di log di diventare troppo grandi (il che influisce sulle prestazioni e sull'analisi), mentre la politica di eliminazione impedirà loro di accumularsi e consumare spazio su disco eccessivo.

  • Durante il ricaricamento di una tabella sospesa, lo stato della tabella mostrato nel monitor a volte era errato.

  • Durante la preparazione di un'attività di trasferimento dopo l'aggiunta di un insieme di dati, a volte si verificava un timeout nella fase di catalogazione delle risorse. Ciò causava il fallimento dell'operazione di preparazione.

12 febbraio 2026
2024.11.65 Patch 22 luglio 2025

Questa patch risolve i seguenti problemi:

  • Durante l'aggiunta di una nuova tabella a un'attività di replica e facendo clic su Prepara, a volte si verificava il seguente errore:

    Prepare data task failed: Object reference not set to an instance of an object.

  • I seguenti file di configurazione di Gateway Data Movement sono stati aggiornati a versioni senza vulnerabilità note:

    • java

    • jetty-io-<version>.jar

    • jetty-http-<version>.jar

    • spring-expression-<version>.jar

    • spring-core-<version>.jar

    • spring-context-<version>.jar

29 gennaio 2026
2024.11.61 Patch 15 luglio 2025 L'installazione di ai-local-agent (richiesto per connettività database vettoriale e LLM) su una macchina con Python 3.12 falliva. Questa patch risolve il problema. 22 gennaio 2026
2024.11.59 Patch 1 luglio 2025

Questa patch risolve i seguenti problemi:

  • Dopo l'aggiornamento a Gateway Data Movement 2024.11.54, la connessione al database falliva.

  • La preparazione dell'attività dati falliva quando l'attività era configurata con una sorgente applicazione SaaS e una destinazione Google BigQuery.

  • Le attività con sorgenti dati basate su Java fallivano dopo l'aggiornamento a Gateway Data Movement 2024.11.54.

  • Durante il CDC, quando una colonna STRING in una tabella sorgente superava i 65536 byte, i dati venivano troncati nella colonna STRING di destinazione. L'attività passava quindi alla modalità di applicazione "uno-a-uno".

  • I file java_file_factory.jar e arep-google-cloud.jar sono stati aggiornati a versioni senza vulnerabilità note.

15 gennaio 2026
2024.11.54 Patch 17 giugno 2025

Questa patch risolve i seguenti problemi:

  • Durante il caricamento completo, l'attività eliminava e ricreava le tabelle di destinazione, anche se l'attività era configurata con Se la tabella di destinazione esiste già: Ignora

  • Dopo aver interrotto e preparato un'attività di replica esistente con la modalità di replica impostata su caricamento completo e applicazione modifiche, il conteggio dei record elaborati dal CDC aumentava, risultando in un conteggio errato.

  • Quando un nuovo insieme di dati veniva aggiunto a un'attività esistente, l'attività falliva con il seguente errore:

    Could not find a match between landing metadata and gateway task metadata for the following tables: <name>

  • Il test di connessione a sorgenti SAP e basate su SQL falliva.

  • Dopo l'aggiornamento del gateway, le attività a volte non riprendevano come previsto.

1 gennaio 2026
2024.11.45 Standard 20 maggio 2025

Supporto per Snowpipe Streaming

In precedenza, il Caricamento in blocco era l'unico metodo disponibile per caricare i dati in Snowflake. Ora i clienti possono utilizzare il Caricamento in blocco o Snowpipe Streaming per integrare o replicare i dati in Snowflake.

I vantaggi di Snowpipe Streaming rispetto al caricamento in blocco includono:

  • Meno costoso: poiché Snowpipe Streaming non utilizza il warehouse di Snowflake, i costi operativi dovrebbero essere significativamente più bassi, anche se ciò dipenderà dal proprio caso d'uso specifico.
  • Latenza ridotta: poiché i dati vengono inviati in streaming direttamente alle tabelle di destinazione (anziché tramite lo staging), la replica dalla sorgente dati alla destinazione dovrebbe essere più veloce.

Problemi risolti

Questa patch risolve i seguenti problemi:

  • Durante la ricerca di database utilizzando il connettore Microsoft Fabric, si verificava il seguente errore (estratto):

    Create connection failed'' with error 'java.lang.NoSuchMethodError

    Il problema era causato da un'incompatibilità con il driver JDBC 12.9.0-preview.jar, installato con l'utilità di configurazione del driver. L'utilità è stata ora aggiornata per installare un driver compatibile.

  • Dopo l'aggiornamento di Gateway Data Movement o il riavvio del servizio Gateway Data Movement, il server Java (richiesto per connettori basati su Java come SAP ODP) non riusciva ad avviarsi.

    • La crittografia end-to-end non veniva applicata reciprocamente per la registrazione dei payload di comando che restituivano log ospitati dal cliente dal centro attività di amministrazione di Qlik Cloud.

    • La versione di SQLite utilizzata da Gateway Data Movement è stata aggiornata a causa di una vulnerabilità con la versione 3.42.0 (CVE-2023-7104).

    • Il file com.h2database utilizzato da Gateway Data Movement è stato aggiornato a causa di una vulnerabilità con la versione h2-2.1.212 (CVE-2022-45868).

17 dicembre 2025
2024.11.34 Patch 1 aprile 2025

Questa patch risolve il seguente problema durante lo spostamento di dati da una sorgente dati IBM DB2 per iSeries:

Quando si utilizza iSeries Access ODBC Driver 07.01.026 o versioni successive, l'attività falliva durante il CDC con un errore "Error parsing".

20 novembre 2025
2024.11.30

Standard

18 marzo 2025

I clienti possono ora connettersi alla destinazione Databricks utilizzando l'autenticazione OAuth, che è il metodo consigliato da Databricks per l'autenticazione dell'account. L'autenticazione con token di accesso personale al momento rimarrà disponibile per la retrocompatibilità, ma è considerata meno sicura di OAuth.

  • Quando un insieme di dati veniva definito con caricamento parallelo e il caricamento completo veniva successivamente disabilitato, l'attività eseguiva comunque un caricamento completo di quell'insieme di dati, anche quando veniva ripreso dal timestamp.

1 ottobre 2025

2024.11.24

Patch

11 marzo 2025

Questa patch risolve i seguenti problemi:

  • La generazione dei metadati non riusciva a completarsi per le tabelle con un punto nel nome (ad esempio Deprec.Area).

  • Le attività venivano ripristinate solo una volta se fallivano durante il caricamento completo a causa di un problema ambientale. Ora verranno ripristinate il numero di volte configurato in Impostazioni > Gestione errori > Errori ambientali > Conteggio massimo tentativi.

18 settembre 2025
2024.11.14 Standard 25 febbraio 2025

Miglioramenti

Certificazione di failover PostgreSQL

L'utilizzo di un database secondario dopo il failover è stato certificato con le seguenti sorgenti dati (a cui è possibile accedere utilizzando il connettore di origine PostgreSQL):

  • Google Cloud SQL per PostgreSQL
  • Amazon RDS per PostgreSQL
  • PostgreSQL (in loco)

Vedere anche: Impostazione del failover

Ottimizzazione delle prestazioni di MySQL

Nelle versioni precedenti, quando si utilizzava un endpoint di origine basato su MySQL in un'attività configurata con dimensioni LOB limitate, Gateway Data Movement utilizzava la ricerca della sorgente per leggere le colonne LOB. Ora, Gateway Data Movement leggerà le colonne LOB direttamente da binlog, migliorando in questo modo le prestazioni.

Nota informaticaQuesto miglioramento non si applica al tipo di dati JSON.

Modifiche alla mappatura del tipo di dati

Le mappature alle colonne LOB sono state modificate per le destinazioni Amazon Redshift e Snowflake.

  • Il tipo di dati BLOB viene ora mappato a VARBYTE(16777216).
  • Il tipo di dati NCLOB è ora mappato a NVARCHAR(65535).
  • Il tipo di dati CLOB è ora mappato a NVARCHAR(65535).
  • CLOB BLOB è ora mappato a BINARY (8388608)
  • Il tipo di dati NCLOB è ora mappato a NVARCHAR(16777216).
  • Il tipo di dati CLOB è ora mappato a VARCHAR(16777216).

Nuovi tipi di dati supportati

  • Ora supporta il tipo di dato BOOLEAN (da DB2 for LUW 11.5).

  • Ora supporta il tipo di dati BIGNUMERIC.

Supporto esteso della destinazione per la tabella di controllo Cronologia DDL

Nelle versioni precedenti di Gateway Data Movement, la tabella di controllo Cronologia DDL era supportata solo con le destinazioni Databricks e Microsoft Fabric. Questa versione introduce il supporto per i seguenti connettori di destinazione aggiuntivi:

  • Amazon Redshift
  • Amazon S3
  • Google Cloud Storage
  • Snowflake

Vedere anche: Cronologia DDL

Supporto per l'utilizzo di un utente non avanzato con Google Cloud SQL per PostgreSQL

Da questa versione, è ora possibile specificare un account un utente non avanzato quando si effettua la replica da Google Cloud SQL per PostgreSQL.

Vedere anche: Utilizzo di un account senza il ruolo di utente avanzato

Piattaforme e versioni del driver con una nuova certificazione

  • 15.4 LTS

  • 23ai

    Nota informatica
    • La sorgente e la destinazione Oracle 23ai sono certificati esclusivamente con Oracle Standard Edition.
    • La sorgente Oracle 23ai è supportata solo con la crittografia TDE.
  • Quando si spostano i dati su Databricks, ora è necessario il driver ODBC di Simba Spark 2.8.2 o versione successiva. I clienti devono eseguire l'utilità di installazione del driver o installare il driver manualmente.

    Vedere anche: Configurazione del driver

Fine supporto

Il supporto per le seguenti versioni del database è stato interrotto:

  • PostgreSQL 12.x
  • IBM DB2 per z/OS: z/OS 2.4
  • Databricks 9.1

Problemi risolti

  • Quando la modalità di replica era impostata su Archivia modifiche e la tabella conteneva una colonna .INCLUDE, l'attività non poteva creare la tabella __CT nella destinazione.

  • L'attività falliva e veniva visualizzato l'errore "Nessuna licenza per il database" se la chiave segreta di Azure Data Lake Storage era scaduta.

  • I file più datati non venivano eliminati quando si eseguiva una nuova attività. Questo poteva determinare il fallimento dell'attività a causa di record duplicati o non corrispondenti.

     

  • Quando si selezionava una tabella definita dall'utente per la replica, si verifica l'errore "Funzionalità non supportata: impossibile selezionare il tipo definito dall'utente". Il problema è stato risolto escludendo le tabelle definite dall'utente (che non sono supportate) dal selettore di tabelle.

  • A volte poteva verificarsi l'errore "Conversione non riuscita" dopo il ripristino da un errore di connessione verificatosi durante l'attività di CDC.

  • Quando si disabilitava il supporto per le LOB, le attività CDC non venivano completate generando l'errore "colonne dati non sufficienti" quando si cercava di inserire la modifica nella tabella __ct. Questo errore si verificava quando si utilizzava la modalità "Archivia modifiche", che è l'unica modalità disponibile per le attività di trasferimento.

  • Durante l'attività CDC, quando si replicava una colonna "NOT NULL" con il tipo di dati mediumtext, l'attività a volte non veniva completata generando il seguente errore:

    A NOT NULL constraint violation occurred on LOB column from MySQL source

  • Quando si inseriva una colonna VARCHAR, si verificava il seguente errore di troncamento:

    String or binary data would be truncated while reading column of type 'VARCHAR'

    Il problema è stato risolto moltiplicando la colonna VARCHAR in Microsoft Fabric.

11 settembre 2025
2024.5.54 Standard 21 gennaio 2025

Il supporto per specificare proprietà di connessione ODBC e JDBC aggiuntive è stato aggiunto al connettore di destinazione Snowflake.

Per ulteriori informazioni, vedere Proprietà di connessione aggiuntive.

  • Quando una chiave primaria veniva alterata sulla sorgente, i metadati di destinazione non venivano aggiornati dopo un ricaricamento.

  • Durante la creazione e l'esecuzione di una nuova attività, i file lasciati dalle attività precedenti non venivano eliminati dalla posizione delle tabelle.

  • Il tentativo di connettersi a una sorgente SAP HANA utilizzando CDC basato su log portava al seguente errore:

    Cannot select user-defined type

25 agosto 2025

2024.5.41

Patch

19 dicembre 2024

Questa patch risolve i seguenti problemi:

  • Le stringhe vuote verranno ora citate nel file CSV per differenziarle dai valori NULL.

  • Una discrepanza tra i dati di origine e di destinazione si verificava in determinati scenari.

  • La disabilitazione del supporto LOB nell'attività di trasferimento causava il fallimento del CDC con il seguente errore (estratto):

    Cannot write to '<name>__ct', not enough data columns

  • L'applicazione di modifiche alla destinazione dopo il ripristino da un errore di connessione a volte falliva con un errore "Conversion failed".

21 luglio 2025

2024.5.35

Patch

10 dicembre 2024

Questa patch risolve i seguenti problemi:

  • Durante un'attività di archiviazione, il tipo di dati NVARCHAR(3500) veniva convertito erroneamente in VARCHAR(10500) invece di VARCHAR(8000) (il massimo consentito), con conseguente errore.

  • Quando la tabella sorgente conteneva un tipo di dati GRAPHIC con code page 941 (giapponese), si verificava il seguente errore (estratto):

    Unexpected CCSID '941' in column 'PNTNM'

19 giugno 2025

2024.5.32

Patch

26 novembre 2024

Dopo aver aggiornato il nome utente e la password nel connettore sorgente Report Workday e aver ricaricato l'attività, si verificava un errore "Invalid username or password" anche se le credenziali erano corrette. Questo problema è ora risolto.

10 giugno 2025

2024.5.31

Patch

19 novembre 2024

Questa patch risolve i seguenti problemi:

Oracle Java Standard Edition 17.0.8, fornito con Gateway Data Movement, presenta diverse vulnerabilità note. Questa patch sostituisce la 17.0.8 con la 17.0.12, risolvendo così i problemi.

Durante il CDC, per ogni modifica, venivano aggiunte più operazioni INSERT alla tabella _ct associata (invece di una sola). Ciò aumentava significativamente il numero di record nella tabella _ct.

26 maggio 2025

2024.5.28

Standard

12 novembre 2024 Fornisce la funzionalità richiesta per la funzionalità di Evoluzione dello schema di prossima uscita.

19 maggio 2025

2024.5.27

Patch

5 novembre 2024

Questa patch risolve i seguenti problemi:

Il 14 agosto 2024, Snowflake ha emesso un avviso di sicurezza sui driver JDBC Snowflake >= 3.2.6 & <= 3.19.1, alcuni dei quali venivano utilizzati con versioni precedenti di Gateway Data Movement. La vulnerabilità è stata corretta nel driver JDBC Snowflake 3.20, che è la versione ora installata con l'utilità di installazione del driver. I clienti esistenti dovrebbero aggiornare il proprio driver alla prima occasione, seguendo la procedura Aggiornamento del driver descritta in Configurazione driver.

  • Quando si utilizza l'evento redo 11.22, si verificavano INSERT mancanti durante l'elaborazione di più INSERT su una pagina compressa che non era stata compressa prima delle INSERT.
  • In scenari rari, un'analisi errata degli eventi DELETE nel record del log redo generava un avviso "The Redo Log DELETE event contains an unknown structure" seguito da vari problemi.

Le istruzioni nel file YAML sono state aggiornate per riflettere la versione corretta del connettore SAP Java.

Quando si utilizza Gateway Data Movement per connettersi alla destinazione Snowflake tramite un proxy, la connessione falliva con il seguente errore:

500 Failed to connect to Data Movement Gateway

12 maggio 2025

2024.5.22

Patch

15 ottobre 2024 Questa patch risolve un problema in un'attività di replica Caricamento completo + CDC, in cui il campo Data task is updated to per l'attività CDC mostrava il timestamp del caricamento completo invece del/i timestamp CDC.

5 maggio 2025

2024.5.16

Patch

8 ottobre 2024
    • Talvolta si verificavano INSERT mancanti in operazioni multiple di INSERT quando si utilizzava il redo event 11.22.
    • Dopo l'aggiornamento di Oracle 19g alla patch di luglio 2024, a volte le operazioni di UPDATE non venivano acquisite e veniva visualizzato il seguente avviso:

      A compressed row cannot be parsed

  • Quando le impostazioni dell'attività erano configurate per creare lo schema della tabella di controllo, l'attività non riusciva con il seguente errore:

    Failed to delete directory

  • Quando un'attività era pianificata per essere eseguita periodicamente, a volte non riusciva con il seguente errore:

    The task stopped abnormally

  • Le attività di trasformazione e archiviazione a volte rimanevano in uno stato In coda per un tempo eccessivamente lungo.

  • Le attività non riuscivano quando si utilizzava il flag della funzionalità use_manipulation_pk_for_apply con la replica Archivia modifiche.

  • Esteso il timeout S3 a 6 ore per evitare problemi derivanti da timeout prolungati, come la perdita del token per il download dei file.

15 aprile 2025

2024.5.14

Standard

11 settembre 2024
  • La coppia di chiavi fornisce un metodo di autenticazione più robusto di utente/password per la connessione a Snowflake con gli account dei servizi. Questo approccio è consigliato per carichi di lavoro quali il caricamento dati (attività di replica o trasferimento) e le trasformazioni.

  • Nelle versioni precedenti, l'aggiornamento dei metadati in un set di dati esistente o in un set di dati appena aggiunto a volte generava un errore. Questo miglioramento garantisce che i metadati possano essere recuperati da più tabelle in parallelo senza alcun problema.

  • Quando una tabella di origine conteneva una colonna con un tipo dati DECIMAL, ad esempio DECIMAL (38, 20), la preparazione dell'attività di archiviazione su Google BigQuery non veniva completata generando il seguente errore (estratto):

    Column <n> in <table name> has incompatible types: STRING, BIGNUMERIC at [93:1]

    Il problema è stato risolto mappando il tipo di dati DECIMAL di origine in DECIMAL in Google BigQuery.

  • Dopo aver apportato modifiche a una regola dello schema esistente in un'attività dati, veniva generato il seguente errore:

    QRI SQL error not implemented

  • Quando si prepara un'attività di trasferimento che si connette alla sorgente di un'applicazione SAP, l'attività veniva completata correttamente, ma nel file di registro repsrv.log veniva riportato il seguente errore:

    Invalid object name 'hk1./QTQVC/QRI'

8 aprile 2025

2024.5.7

Standard

6 agosto 2024
  • In precedenza, quando veniva completata una modifica dei metadati, tutte le tabelle venivano eliminate e ricreate anche se tale modifica non aveva alcun impatto sulle tabelle. Ora, solo le tabelle modificate verranno rimosse e ricreate, pertanto migliorando le prestazioni.

  • Le tabelle create del database di origine durante l'attività dati di replica che corrispondono a Includi motivo, verranno acquisite automaticamente durante il processo CDC (Change data capture).

    • In precedenza, quando si leggevano più transazioni da Microsoft SQL Server (MS-CDC), Qlik Talend Data Integration manteneva l'ID della transazione e il timestamp solo per la prima transazione. Nella destinazione, questo dava l'impressione che i record fossero parte di un'unica transazione. Ora, Qlik Talend Data Integration mantiene l'ID della transazione originale e il timestamp per ogni record individuale. Questo fornisce un vantaggio per i clienti che desiderano utilizzare le colonne intestazione ID transazione e Timestamp nelle tabelle di modifica.

    • In precedenza, i byte nell'ID transazione erano codificati in ordine inverso. A partire da questa versione, i byte verranno codificati nell'ordine corretto. I clienti di Informazioni che preferiscono mantenere il comportamento esistente possono farlo utilizzando parametri interni. Per maggiori dettagli, contattare il supporto Qlik.

  • Qlik Talend Data Integration ora supporta la memorizzazione nella cache dell'autenticazione SHA-2 collegabile (caching_sha2_password) quando si utilizzano sorgenti o destinazioni MySQL, locali o sul cloud. Nelle versioni precedenti, era supportata solo l'autenticazione Native Pluggable Authentication (mysql_native_password).

  • I tipi di dati BYTES e BLOB vengono ora mappati a VARBYTE su Amazon Redshift anziché VARCHAR.

    • PostgreSQL 16.x

    • MySQL 8.1
    • IBM DB2 per z/OS 3.1
    • PostgreSQL 16.x
    • MySQL 8.1
    • Databricks 14.3 LTS
    • SQL Server ODBC Driver 18.3

Il supporto per le seguenti versioni del database è stato interrotto:

  • Tutte le versioni e i driver Oracle anteriori a Oracle 19.x
  • Microsoft SQL Server 2014
  • MySQL 5.7
  • PostgreSQL 11
  • IBM DB2 for LUW 10.5
  • IBM DB2 per z/OS: z/OS 2.3
  • Quando la modifica del documento di un cluster acquisita eliminava tutte le righe delle tabelle acquisite, veniva visualizzato un messaggio di errore per un'operazione DELETE mancante e messaggi di asserzione non necessari.

  • Aggiornamento della libreria di Microsoft Authentication per Java (MSAL4J) e Bouncy Castle a versioni senza vulnerabilità note.

    • L'attività a volte non veniva completata quando si utilizzava l'archiviazione interna di Snowflake.
    • L'attività non veniva completata quando il nome dello schema era Japanese Katakana.
  • Quando si riprendeva un'attività con una sorgente Oracle, l'attività rimaneva in attesa di un registro di ripristino eliminato anziché non riuscire generando un errore appropriato.

11 marzo 2025

2023.11.23

Standard

26 giugno 2024
  • Da questa versione, lo schema dei metadati Snowflake (per i file in modalità staged) verrà creato se non esiste.

  • Una volta apportata una modifica a una regola Rinomina set di dati (concatenando il nome della tabella con il nome dello schema) e aggiunta una vista all'attività di trasferimento, l'operazione Prepara falliva generando il seguente errore:

    QRI SQL error not implemented.

  • Il componente java_file_factory è stato aggiornato a una versione senza vulnerabilità note.
  • org.postgresql:postgresql è stato aggiornato a una versione senza vulnerabilità note.
  • Quando si spostano i dati su SQL Server, l'operazione Prepara generava errore quando i nomi di indicizzazione superavano i 128 caratteri. Il problema è stato risolto alterando la logica per creare nomi di indicizzazione più brevi.
  • Quando si spostano i dati da SQL Server, il nome mancante di una colonna nelle definizioni della tabella causava l'invio ripetuto all'infinito della notifica nel file repsrv.log, con il seguente messaggio:

    mssql_resolve_sqlserver_table_column_attributes(...) failed to find column

6 febbraio 2025

2023.11.11

Standard

21 maggio 2024
  • È stato aggiunto il supporto per il recupero simultaneo dei metadati per più tabelle.

  • Le informazioni di monitoraggio per le attività di trasferimento e replica ora vengono aggiornate ogni 10 secondi (anziché ogni 60 secondi), fornendo un'indicazione più precisa dello stato corrente.

  • Il Giappone ora è supportato come regione del tenant Qlik Cloud.

  • L'intervallo di tentativi tra il gateway dati e Qlik Cloud aumentava continuamente, ma non veniva mai reimpostato (a meno che il servizio non venisse riavviato).
  • Quando si spostavano dati dalla sorgente di un'applicazione SaaS, le tabelle a volte visualizzavano uno stato di errore durante il ricaricamento.
  • Le attività con una sorgente MySQL a volte non venivano completate con il seguente errore durante le attività di CDC:

    Read next binary log event failed; mariadb_rpl_fetch error 0 Error reading binary log.

  • In precedenza, gli eventi di controllo CDC venivano registrati solo per le attività di trasferimento. Ora, vengono registrati anche per le attività di replica.
  • Quando si spostano dati da SQL Server (MS-CDC), le attività con un gran numero di tabelle a volte richiedevano diverse ore per essere avviate.
  • Quando la tabella di origine conteneva colonne CLOB e il valore di "Limita dimensione LOB" era superiore a 10240, la replica su Snowflake non veniva completata con il seguente errore:

    Invalid character length: 0

26 dicembre 2024
2023.11.4

Standard

12 marzo 2024

I clienti ora possono installare il Gateway Data Movement su Red Hat 9.x o qualsiasi distribuzione Linux corrispondente e compatibile.

Impostazione di Gateway Data Movement

I comandi per interrompere, avviare e verificare lo stato del servizio del Gateway Data Movement sono cambiati.

Comandi di servizio di Gateway Data Movement

  • Il tipo di dati BOOLEAN, che è stato mappato a VARCHAR(1) in Amazon Redshift, ora verrà mappato a BOOLEAN.
  • I tipi di dati BYTES e BLOB, che sono stati mappati a VARCHAR(1) in Amazon Redshift, ora verranno mappati a VARBINARY (lunghezza).

Questa sezione elenca i nuovi database, versioni del database e versioni del driver supportati.

  • Nuove versioni ed edizioni supportate per la sorgente dati

    Le seguenti versioni di sorgenti dati ora sono supportate:

    • Azure Database per MySQL - Server flessibile (supportato tramite il connettore di origine MySQL)
    • MariaDB 10.4 - 10.11 (in precedenza 10.4 e 10.5)
  • Nuove piattaforme ed edizioni supportate per la piattaforma di dati di destinazione

    Le seguenti versioni di destinazioni dati ora sono supportate:

    • Azure Database per MySQL - Server flessibile (supportato tramite il connettore di destinazione MySQL)
    • Databricks: Databricks 13.3 LTS e warehouse SQL senza server
  • Nuova versione del driver SAP HANA supportata

    I clienti con una sorgente SAP HANA che desiderano installare il Gateway Data Movement su Red Hat Linux 9.x, devono installare il driver SAP HANA ODBC a 64 bit versione 2.0.19 o successiva.

In questa sezione sono disponibili le informazioni sulle versioni del database con fine supporto.

  • Il supporto per le seguenti versioni di sorgenti dati è stato interrotto:

    • Oracle 11.x
    • SAP HANA 1.0
  • Quando si installava il Gateway Data Movement senza fornire una password per il server, non era possibile configurare gli URL di tenant e proxy con un unico comando.
  • Se si spostavano i dati da una sorgente dati Salesforce (un'applicazione SaaS) veniva stampato un gran numero di avvisi ridondanti, incidendo pertanto in modo negativo sulle prestazioni di caricamento dei dati.
  • Quando si recuperavano le modifiche per la sorgente dati di un'applicazione SaaS, se si verificava un errore durante il recupero delle modifiche per una delle tabelle, quella tabella veniva sospesa e rimossa dalla pipeline. Ora, quando si verifica un errore, l'attività proverà a recuperare le modifiche fino a tre volte prima di sospendere la tabella.
21 novembre 2024
2023.5.16

Standard

9 gennaio 2024

Espandiamo in continuazione le destinazioni supportate per i progetti di replica in Qlik Cloud Data Integration: oltre ad Amazon S3, ora è possibile selezionare Azure Data Lake Storage (ADLS) e Google Cloud Storage (GCS) per la consegna nei data lake nei formati file Parquet, JSON o CSV.

  • La connessione a IBM DB2 per LUW falliva quando la dimensione dei file necessari per la connessione (come il certificato client SSL e il file keystore) superava i 4 KB.

  • L'installazione del driver DB2 falliva quando si utilizzava l'utilità di installazione del driver.

12 settembre 2024

2023.5.15

Standard

12 dicembre 2023

Microsoft Fabric è stato aggiunto all'elenco di data warehouse, in continua espansione, che è possibile utilizzare nei progetti di pipeline di dati.

Aggiornata la versione del driver Snowflake nell'utilità di installazione del driver.

9 luglio 2024

2023.5.10

Standard

31 ottobre 2023

È possibile utilizzare una connessione privata per assicurare che il traffico dati sia protetto e conforme alle norme. Semplifica sia la gestione della rete e la sicurezza del VPC (Virtual Private Cloud) senza bisogno di utilizzare porte del firewall in ingresso, dispositivi proxy o tabelle di routing. Qlik Cloud Data Integration supporta già le connessioni private alle destinazioni delle pipeline di dati di Snowflake, Microsoft SQL Server e Amazon S3. Con questa nuova versione, i clienti possono inoltre utilizzare connessioni private durante lo spostamento dei dati da Databricks, Microsoft Azure Synapse, Google BigQuery e Amazon Redshift.

  • Tutte le sorgenti dati basate su PostgreSQL – Supporto dei tipi di dati multigamma: i seguenti tipi di dati multigamma ora sono supportati con le sorgenti dati basate su PostgreSQL (in loco e cloud).

    • INT4MULTIRANGE
    • INT8MULTIRANGE
    • NUMMULTIRANGE
    • TSMULTIRANGE
  • AWS Aurora Cloud per sorgenti dati PostgreSQL – Supporto del ruolo Non utente avanzato: gli utenti specificati nel connettore PostgreSQL non devono più disporre del ruolo di utente avanzato per spostare i dati da una sorgente dati AWS Aurora Cloud per PostgreSQL. Ciò è particolarmente utile per le organizzazioni con politiche di sicurezza aziendale che impediscono loro di fornire accesso come utente avanzato agli utenti che non hanno le autorizzazioni necessarie.

I clienti che spostano i dati da una sorgente Microsoft Azure SQL (MS-CDC) ora possono utilizzare un database per la replica geografica.

Qlik Cloud Data Integration ora supporta la lettura dei dati dagli spazi tabelle Oracle crittografate e dalle colonne crittografate durante la Change Data Capture (CDC).

Qlik Cloud Data Integration ora supporta i tenant nelle regioni DE e UK.

In questa sezione è disponibile un elenco dei nuovi database e versioni di driver supportati.

  • Nuove versioni supportate per la sorgente dati Le seguenti versioni di sorgenti dati ora sono supportate:

    • Microsoft SQL Server 2022
    • Oracle 21c
    • PostgreSQL 15.x
    • DB2 13.1 (quando si utilizza IBM DB2 per z/OS)
    • IBM DB2 per iSeries 7.5
  • Nuove versioni supportate per la piattaforma di dati di destinazione Le seguenti versioni di destinazioni dati ora sono supportate:

    • Databricks (Cloud Storage): Databricks 12.2 LTS e Databricks SQL Serverless
  • Versioni driver Le seguenti versioni di driver ODBC ora sono supportate:

    • IBM Data Server Client 11.5.8 per IBM DB2 per z/OZ e IBM DB2 per LUW
    • Driver Simba ODBC 3.0.0.1001 per Google Cloud BigQuery
    • Driver MySQL ODBC Unicode a 64 bit 8.0.32

I clienti che spostano dati in o da Microsoft SQL Server devono aggiornare il driver ODBC per SQL Server alla versione 18.x o successiva. Tenere presente che continuare a utilizzare il driver ODBC 17.x per SQL Server potrebbe provocare errori di dati. L'aggiornamento del driver può essere effettuato utilizzando l'utilità di installazione dei driver o manualmente. Per le istruzioni, vedere Configurazione del driver.

In questa sezione sono disponibili le informazioni sulle versioni del database con fine supporto.

  • Versioni delle sorgenti dati con fine supporto Il supporto per le seguenti versioni di sorgenti dati è stato interrotto:

    • PostgreSQL 10
    • MySQL 5.6
    • MariaDB 10.3
  • Versioni per la piattaforma di dati di destinazione con fine supporto Il supporto per le seguenti versioni di destinazioni dati è stato interrotto:

    • Databricks 9.1 LTS

12 giugno 2024

2022.11.74

Standard

15 agosto 2023

Abbiamo adottato un approccio che dà la precedenza al cloud, che consente una rapida innovazione e adozione. Tuttavia, ciò non significa che il nostro approccio si limita esclusivamente al cloud. Come parte del nostro continuo impegno per migliorare il valore a lungo termine per i nostri clienti, siamo lieti di annunciare il rilascio di un nuovo caso di utilizzo per la Replica per la creazione di progetti dati. Il nuovo caso di utilizzo di Replica è stato aggiunto alla possibilità esistente di creare pipeline di dati per tutte le esigenze relative alle integrazioni dati, come la modernizzazione dei data warehouse.

Il progetto Replica supporta la replica dei dati in tempo reale da sorgenti dati supportate in una destinazione supportata.

A partire da questa ultima versione, la prima destinazione a supportare la replica dei dati in tempo reale è Microsoft SQL Server. Oltre al supporto di Microsoft SQL Server in loco, sono supportati anche i seguenti provider cloud:

  • in loco
  • Amazon RDS
  • Google Cloud
  • Microsoft Azure (Microsoft Azure Managed Instance e Microsoft Azure Database)

I clienti che spostano dati in Microsoft Azure Synapse Analytics devono aggiornare il driver ODBC per SQL Server alla versione 18.x o successiva. Tenere presente che continuare a utilizzare il driver ODBC 17.x per SQL Server potrebbe provocare errori di dati. L'aggiornamento del driver può essere effettuato utilizzando l'utilità di installazione dei driver o manualmente. Per le istruzioni, vedere Configurazione del driver.

È stata introdotta una nuova opzione, Carica da origine, che consente ai clienti di leggere i propri dati direttamente dalla sorgente durante il caricamento completo, anziché utilizzare i dati nella cache.

Per maggiori informazioni su questa opzione, oltre ai casi di utilizzo, vedere Impostazioni di trasferimento.

Gateway Data Movement 2022.11.74 include certificati CA aggiornati, che sono necessari per autenticare il tenant Qlik Cloud. I certificati CA aggiornati, inoltre, offrono supporto per l'Irlanda e Francoforte. Di conseguenza, i clienti con tenant Qlik Cloud in Irlanda o Francoforte che vogliono utilizzare Qlik Cloud Data Integration devono effettuare l'aggiornamento a questa versione.

Le attività di trasferimento dati da una sorgente Oracle potevano non essere completate se una tabella di grandi dimensioni conteneva colonne inutilizzate o non supportate, o colonne LOB che non erano replicate.

31 aprile 2024

2022.11.70

Standard

28 giugno 2023

Nelle versioni precedenti, i clienti dovevano eseguire il comando "source arep_login.sh" durante l'installazione dei client SAP. Da questa versione, non è più necessario eseguire questo comando.

Questa versione include certificati CA aggiornati, necessari per l'autenticazione del tenant Qlik Cloud.

  • Se un'attività di replica su Gateway Data Movement non riesce e viene recuperata automaticamente, lo stato recuperato non verrà comunicato all'Asset dati di trasferimento in Qlik Cloud.

  • La crittografia end-to-end per Gateway Data Movement dati potrebbe non venire abilitata per impostazione predefinita ed essere controllata da contrassegni in runtime.
15 febbraio 2024

2022.11.63

Standard

2 maggio 2023

Questa versione introduce un'utilità di installazione dei driver che elimina il bisogno di installare e configurare manualmente i driver. La nuova utilità consente di velocizzare il processo di installazione riducendo allo stesso tempo in modo significativo la possibilità di un errore da parte dell'utente. Quando l'utilità è in esecuzione, il driver richiesto viene eseguito automaticamente, se possibile, e quindi installato. Se non è possibile scaricare il driver (i driver DB2 richiedono l'accesso, per esempio), è necessario semplicemente scaricare il driver, copiarlo in una cartella dedicata sul computer gateway di Data Movement, ed eseguire l'utilità.

Per un esempio sull'utilizzo dell'utilità di installazione del driver per installare un driver PostgreSQL, vedere Prerequisiti.

Il connettore Snowflake ora supporta i caratteri emoji a 4 byte.

Il connettore PostgreSQL ora può spostare i dati da data dal database di Azure per PostgreSQL - Server Flessibile.

Il connettore PostgreSQL ora può spostare i dati da Cloud SQL for PostgreSQL.

Questa versione introduce il supporto per le seguenti versioni della sorgente dati:

  • PostgreSQL 14
  • DB2 (per IBM DB2 per z/OS) 12.1
  • IBM DB2 per z/OS 2.5

Databricks 11.3 LTS

Le seguenti versioni di sorgenti dati non sono più supportate:

  • DB2 (per IBM DB2 per z/OS) 11
  • PostgreSQL 9.6
  • Microsoft SQL Server 2012
  • MariaDB 10.2

Questa versione risolve i seguenti problemi:

  • Sorgente dati Oracle: Quando si interrompe e si riprende un'attività, questa a volte può fallire visualizzando l'errore “Impossibile impostare la posizione del flusso in contesto”.
  • Sorgente applicazione SAP: le modifiche non vengono rilevate durante le attività di trasferimento.

28 dicembre 2023

2022.5.13

Standard

19 ottobre 2022

Rilascio iniziale

2 novembre 2023

Disinstallazione di Gateway Data Movement

Per disinstallare Gateway Data Movement, eseguire il seguente comando:

rpm -e <installation package name>

Esempio:

rpm -e qlik-data-gateway-data-movement-2023.11-1.x86_64

Se non si conosce il nome del pacchetto, eseguire:

rpm -qa | grep qlik

Nota di avvisoLa disinstallazione di Gateway Data Movement causerà il fallimento di tutte le attività che utilizzano attualmente il gateway dati.

Hai trovato utile questa pagina?

Se riscontri problemi con questa pagina o con il suo contenuto – un errore di battitura, un passaggio mancante o un errore tecnico – ti pregiamo di farcelo sapere!