Vai al contenuto principale Passa a contenuto complementare

Aggiornamento e disinstallazione del Gateway di Data Movement

In questa sezione si spiega come aggiornare o disinstallare l'installazione del Gateway di Data Movement. Inoltre, viene riportata una tabella con un elenco tutte le modifiche introdotte in ogni versione del Gateway di Data Movement.

Procedura di aggiornamento

Per verificare la versione corrente utilizzata, andare a Amministrazione della > Gateway dati e verificare la colonna Versione corrispondente al Gateway di Data Movement utilizzato.

Se è disponibile una nuova versione, il numero della versione è accompagnato da un !. È possibile passare il puntatore del mouse su per ottenere maggiori informazioni. Se la versione del gateway installato non è supportata, lo Stato sarà Disattivato e sarà necessario un aggiornamento per attivare il gateway.

Ogni volta che diventa disponibile una nuova versione RPM per Gateway di Data Movement, è necessario scaricarla daAmministrazione e aggiornare l'installazione esistente.

Operazione da eseguire:

  1. Scaricare la nuova versione facendo clic su sul gateway, quindi su Aggiorna.

    Accettare il contratto con il cliente e scaricare l'RPM.

  2. Aprire un prompt della shell e cambiare la directory di lavoro nella directory contenente il file RPM.
  3. Eseguire il comando seguente:

    Sintassi:

    rpm -U <rpm name>

    Esempio:

    sudo rpm -U qlik-data-gateway-data-movement.rpm

  4. Avviare il servizio gateway di Data Movement:

    sudo systemctl start repagent

  5. Facoltativamente, confermare che il servizio si è avviato:

    sudo systemctl status repagent

    Lo stato dovrebbe essere il seguente:

    Active: active (running) since <timestamp> ago

Cronologia delle versioni di Gateway di Data Movement

Versione

Data di rilascio

Modifiche significative

Data di fine supporto

2024.5.28 12 novembre 2024 Fornisce le funzioni necessarie per la funzionalità Evoluzione dello schema, che verrà rilasciata a breve. Determinato al rilascio della prossima versione importante
2024.5.27 5 novembre 2024

Questa versione risolve i seguenti problemi:

  • Quando si utilizzava l'evento "redo event 11.22", si verificavano operazioni INSERT mancati quando si elaboravano più operazioni INSERT su una pagina compressa che non era stata compressa prima delle operazioni INSERT.
  • In rari casi, l'errata analisi degli eventi DELETE nel record dei registri di ripristino generava l'avviso "L'evento DELETE del registro di ripristino contiene una struttura sconosciuta", seguito da vari problemi.

Le istruzioni del file YAML sono state aggiornate per riflettere la versione corretta del connettore SAP Java.

Quando si utilizzava il gateway di Data Movement per connettersi alla destinazione Snowflake tramite un proxy, la connessione falliva generando il seguente errore:

500 Failed to connect to Data Movement Gateway

Determinato al rilascio della prossima versione importante
2024.5.22 15 ottobre 2024 Questa versione risolve un problema nelle attività di replica di caricamento completo + CDC, per cui il campo dell'Attività dati aggiornata a per l'attività CDC mostrava il timestamp del Caricamento completo anziché quello del CDC. Determinato al rilascio della prossima versione importante
2024.5.16 8 ottobre 2024
    • Talvolta si verificavano INSERT mancanti in operazioni multiple di INSERT quando si utilizzava il redo event 11.22.
    • Dopo l'aggiornamento di Oracle 19g alla patch di luglio 2024, a volte le operazioni di UPDATE non venivano acquisite e veniva visualizzato il seguente avviso:

      A compressed row cannot be parsed

  • Quando le impostazioni dell'attività erano configurate per creare lo schema della tabella di controllo, l'attività non riusciva con il seguente errore:

    Failed to delete directory

  • Quando un'attività era pianificata per essere eseguita periodicamente, a volte non riusciva con il seguente errore:

    The task stopped abnormally

  • Le attività di trasformazione e archiviazione a volte rimanevano in uno stato In coda per un tempo eccessivamente lungo.

  • Le attività non riuscivano quando si utilizzava il flag della funzionalità use_manipulation_pk_for_apply con la replica Archivia modifiche.

  • Esteso il timeout S3 a 6 ore per evitare problemi derivanti da timeout prolungati, come la perdita del token per il download dei file.

Determinato al rilascio della prossima versione importante
2024.5.14 10 settembre 2024
  • La coppia di chiavi fornisce un metodo di autenticazione più robusto di utente/password per la connessione a Snowflake con gli account dei servizi. Questo approccio è consigliato per carichi di lavoro quali il caricamento dati (attività di replica o trasferimento) e le trasformazioni.

  • Nelle versioni precedenti, l'aggiornamento dei metadati in un set di dati esistente o in un set di dati appena aggiunto a volte generava un errore. Questo miglioramento garantisce che i metadati possano essere recuperati da più tabelle in parallelo senza alcun problema.

  • Quando una tabella di origine conteneva una colonna con un tipo dati DECIMAL, ad esempio DECIMAL (38, 20), la preparazione dell'attività di archiviazione su Google BigQuery non veniva completata generando il seguente errore (estratto):

    Column <n> in <table name> has incompatible types: STRING, BIGNUMERIC at [93:1]

    Il problema è stato risolto mappando il tipo di dati DECIMAL di origine in DECIMAL in Google BigQuery.

  • Dopo aver apportato modifiche a una regola dello schema esistente in un'attività dati, veniva generato il seguente errore:

    QRI SQL error not implemented

  • Quando si prepara un'attività di trasferimento che si connette alla sorgente di un'applicazione SAP, l'attività veniva completata correttamente, ma nel file di registro repsrv.log veniva riportato il seguente errore:

    Invalid object name 'hk1./QTQVC/QRI'

Determinato al rilascio della prossima versione importante
2024.5.7 6 agosto 2024
  • In precedenza, quando veniva completata una modifica dei metadati, tutte le tabelle venivano eliminate e ricreate anche se tale modifica non aveva alcun impatto sulle tabelle. Ora, solo le tabelle modificate verranno rimosse e ricreate, pertanto migliorando le prestazioni.

  • Le tabelle create del database di origine durante l'attività dati di replica che corrispondono a Includi motivo, verranno acquisite automaticamente durante il processo CDC (Change data capture).

    • In precedenza, quando si leggevano più transazioni da Microsoft SQL Server (MS-CDC), Qlik Talend Data Integration manteneva l'ID della transazione e il timestamp solo per la prima transazione. Nella destinazione, questo dava l'impressione che i record fossero parte di un'unica transazione. Ora, Qlik Talend Data Integration mantiene l'ID della transazione originale e il timestamp per ogni record individuale. Questo fornisce un vantaggio per i clienti che desiderano utilizzare le colonne intestazione ID transazione e Timestamp nelle tabelle di modifica.

    • In precedenza, i byte nell'ID transazione erano codificati in ordine inverso. A partire da questa versione, i byte verranno codificati nell'ordine corretto. I clienti di Informazioni che preferiscono mantenere il comportamento esistente possono farlo utilizzando parametri interni. Per maggiori dettagli, contattare il supporto Qlik.

  • Qlik Talend Data Integration ora supporta la memorizzazione nella cache dell'autenticazione SHA-2 collegabile (caching_sha2_password) quando si utilizzano sorgenti o destinazioni MySQL, locali o sul cloud. Nelle versioni precedenti, era supportata solo l'autenticazione Native Pluggable Authentication (mysql_native_password).

  • I tipi di dati BYTES e BLOB vengono ora mappati a VARBYTE su Amazon Redshift anziché VARCHAR.

    • PostgreSQL 16.x

    • MySQL 8.1
    • IBM DB2 per z/OS 3.1
    • PostgreSQL 16.x
    • MySQL 8.1
    • Databricks 14.3 LTS
    • SQL Server ODBC Driver 18.3

Il supporto per le seguenti versioni del database è stato interrotto:

  • Tutte le versioni e i driver Oracle anteriori a Oracle 19.x
  • Microsoft SQL Server 2014
  • MySQL 5.7
  • PostgreSQL 11
  • IBM DB2 for LUW 10.5
  • IBM DB2 per z/OS: z/OS 2.3
  • Quando la modifica del documento di un cluster acquisita eliminava tutte le righe delle tabelle acquisite, veniva visualizzato un messaggio di errore per un'operazione DELETE mancante e messaggi di asserzione non necessari.

  • Aggiornamento della libreria di Microsoft Authentication per Java (MSAL4J) e Bouncy Castle a versioni senza vulnerabilità note.

    • L'attività a volte non veniva completata quando si utilizzava l'archiviazione interna di Snowflake.
    • L'attività non veniva completata quando il nome dello schema era Japanese Katakana.
  • Quando si riprendeva un'attività con una sorgente Oracle, l'attività rimaneva in attesa di un registro di ripristino eliminato anziché non riuscire generando un errore appropriato.

Determinato al rilascio della prossima versione importante
2023.11.23 26 giugno 2024
  • Da questa versione, lo schema dei metadati Snowflake (per i file in modalità staged) verrà creato se non esiste.

  • Una volta apportata una modifica a una regola Rinomina set di dati (concatenando il nome della tabella con il nome dello schema) e aggiunta una vista all'attività di trasferimento, l'operazione Prepara falliva generando il seguente errore:

    QRI SQL error not implemented.

  • Il componente java_file_factory è stato aggiornato a una versione senza vulnerabilità note.
  • org.postgresql:postgresql è stato aggiornato a una versione senza vulnerabilità note.
  • Quando si spostano i dati su SQL Server, l'operazione Prepara generava errore quando i nomi di indicizzazione superavano i 128 caratteri. Il problema è stato risolto alterando la logica per creare nomi di indicizzazione più brevi.
  • Quando si spostano i dati da SQL Server, il nome mancante di una colonna nelle definizioni della tabella causava l'invio ripetuto all'infinito della notifica nel file repsrv.log, con il seguente messaggio:

    mssql_resolve_sqlserver_table_column_attributes(...) failed to find column

6 febbraio 2025

2023.11.11 21 maggio 2024
  • È stato aggiunto il supporto per il recupero simultaneo dei metadati per più tabelle.

  • Le informazioni di monitoraggio per le attività di trasferimento e replica ora vengono aggiornate ogni 10 secondi (anziché ogni 60 secondi), fornendo un'indicazione più precisa dello stato corrente.

  • Il Giappone ora è supportato come regione del tenant Qlik Cloud.

  • L'intervallo di tentativi tra il gateway dati e Qlik Cloud aumentava continuamente, ma non veniva mai reimpostato (a meno che il servizio non venisse riavviato).
  • Quando si spostavano dati dalla sorgente di un'applicazione SaaS, le tabelle a volte visualizzavano uno stato di errore durante il ricaricamento.
  • Le attività con una sorgente MySQL a volte non venivano completate con il seguente errore durante le attività di CDC:

    Read next binary log event failed; mariadb_rpl_fetch error 0 Error reading binary log.

  • In precedenza, gli eventi di controllo CDC venivano registrati solo per le attività di trasferimento. Ora, vengono registrati anche per le attività di replica.
  • Quando si spostano dati da SQL Server (MS-CDC), le attività con un gran numero di tabelle a volte richiedevano diverse ore per essere avviate.
  • Quando la tabella di origine conteneva colonne CLOB e il valore di "Limita dimensione LOB" era superiore a 10240, la replica su Snowflake non veniva completata con il seguente errore:

    Invalid character length: 0

Determinato al rilascio della prossima versione importante
2023.11.4 12 marzo 2024

I clienti ora possono installare il Gateway di Data Movement su Red Hat 9.x o qualsiasi distribuzione Linux corrispondente e compatibile.

Impostazione di Gateway di Data Movement

I comandi per interrompere, avviare e verificare lo stato del servizio del Gateway di Data Movement sono cambiati.

Comandi di servizio di Gateway di Data Movement

  • Il tipo di dati BOOLEAN, che è stato mappato a VARCHAR(1) in Amazon Redshift, ora verrà mappato a BOOLEAN.
  • I tipi di dati BYTES e BLOB, che sono stati mappati a VARCHAR(1) in Amazon Redshift, ora verranno mappati a VARBINARY (lunghezza).

Questa sezione elenca i nuovi database, versioni del database e versioni del driver supportati.

  • Nuove versioni ed edizioni supportate per la sorgente dati

    Le seguenti versioni di sorgenti dati ora sono supportate:

    • Azure Database per MySQL - Server flessibile (supportato tramite il connettore di origine MySQL)
    • MariaDB 10.4 - 10.11 (in precedenza 10.4 e 10.5)
  • Nuove piattaforme ed edizioni supportate per la piattaforma di dati di destinazione

    Le seguenti versioni di destinazioni dati ora sono supportate:

    • Azure Database per MySQL - Server flessibile (supportato tramite il connettore di destinazione MySQL)
    • Databricks: Databricks 13.3 LTS e warehouse SQL senza server
  • Nuova versione del driver SAP HANA supportata

    I clienti con una sorgente SAP HANA che desiderano installare il Gateway di Data Movement su Red Hat Linux 9.x, devono installare il driver SAP HANA ODBC a 64 bit versione 2.0.19 o successiva.

In questa sezione sono disponibili le informazioni sulle versioni del database con fine supporto.

  • Il supporto per le seguenti versioni di sorgenti dati è stato interrotto:

    • Oracle 11.x
    • SAP HANA 1.0
  • Quando si installava il Gateway di Data Movement senza fornire una password per il server, non era possibile configurare gli URL di tenant e proxy con un unico comando.
  • Se si spostavano i dati da una sorgente dati Salesforce (un'applicazione SaaS) veniva stampato un gran numero di avvisi ridondanti, incidendo pertanto in modo negativo sulle prestazioni di caricamento dei dati.
  • Quando si recuperavano le modifiche per la sorgente dati di un'applicazione SaaS, se si verificava un errore durante il recupero delle modifiche per una delle tabelle, quella tabella veniva sospesa e rimossa dalla pipeline. Ora, quando si verifica un errore, l'attività proverà a recuperare le modifiche fino a tre volte prima di sospendere la tabella.
Determinato al rilascio della prossima versione importante
2023.5.16 9 gennaio 2024

Espandiamo in continuazione le destinazioni supportate per i progetti di replica in Qlik Cloud Data Integration: oltre ad Amazon S3, ora è possibile selezionare Azure Data Lake Storage (ADLS) e Google Cloud Storage (GCS) per la consegna nei data lake nei formati file Parquet, JSON o CSV.

  • La connessione a IBM DB2 per LUW generava errore quando le dimensioni dei file necessari per la connessione (come il certificato del client SSL e il file dell'archivio dati) superavano i 4 KB.

  • L'installazione del driver DB2 generava errore quando si utilizzava l'utilità di installazione del driver.

7 settembre 2024

2023.5.15 12 dicembre 2023

Microsoft Fabric è stato aggiunto all'elenco di data warehouse, in continua espansione, che è possibile utilizzare nei progetti di pipeline di dati.

la versione del driver Snowflake è stata aggiornata nell'utilità di installazione.

7 settembre 2024

2023.5.10 31 ottobre 2023

È possibile utilizzare una connessione privata per assicurare che il traffico dati sia protetto e conforme alle norme. Semplifica sia la gestione della rete e la sicurezza del VPC (Virtual Private Cloud) senza bisogno di utilizzare porte del firewall in ingresso, dispositivi proxy o tabelle di routing. Qlik Cloud Data Integration supporta già le connessioni private alle destinazioni delle pipeline di dati di Snowflake, Microsoft SQL Server e Amazon S3. Con questa nuova versione, i clienti possono inoltre utilizzare connessioni private durante lo spostamento dei dati da Databricks, Microsoft Azure Synapse, Google BigQuery e Amazon Redshift.

  • Tutte le sorgenti dati basate su PostgreSQL – Supporto dei tipi di dati multigamma: i seguenti tipi di dati multigamma ora sono supportati con le sorgenti dati basate su PostgreSQL (in loco e cloud).

    • INT4MULTIRANGE
    • INT8MULTIRANGE
    • NUMMULTIRANGE
    • TSMULTIRANGE
  • AWS Aurora Cloud per sorgenti dati PostgreSQL – Supporto del ruolo Non utente avanzato: gli utenti specificati nel connettore PostgreSQL non devono più disporre del ruolo di utente avanzato per spostare i dati da una sorgente dati AWS Aurora Cloud per PostgreSQL. Ciò è particolarmente utile per le organizzazioni con politiche di sicurezza aziendale che impediscono loro di fornire accesso come utente avanzato agli utenti che non hanno le autorizzazioni necessarie.

I clienti che spostano i dati da una sorgente Microsoft Azure SQL (MS-CDC) ora possono utilizzare un database per la replica geografica.

Qlik Cloud Data Integration ora supporta la lettura dei dati dagli spazi tabelle Oracle crittografate e dalle colonne crittografate durante la Change Data Capture (CDC).

Qlik Cloud Data Integration ora supporta i tenant nelle regioni DE e UK.

In questa sezione è disponibile un elenco dei nuovi database e versioni di driver supportati.

  • Nuove versioni supportate per la sorgente dati Le seguenti versioni di sorgenti dati ora sono supportate:

    • Microsoft SQL Server 2022
    • Oracle 21c
    • PostgreSQL 15.x
    • DB2 13.1 (quando si utilizza IBM DB2 per z/OS)
    • IBM DB2 per iSeries 7.5
  • Nuove versioni supportate per la piattaforma di dati di destinazione Le seguenti versioni di destinazioni dati ora sono supportate:

    • Databricks (Cloud Storage): Databricks 12.2 LTS e Databricks SQL Serverless
  • Versioni driver Le seguenti versioni di driver ODBC ora sono supportate:

    • IBM Data Server Client 11.5.8 per IBM DB2 per z/OZ e IBM DB2 per LUW
    • Driver Simba ODBC 3.0.0.1001 per Google Cloud BigQuery
    • Driver MySQL ODBC Unicode a 64 bit 8.0.32

I clienti che spostano dati in o da Microsoft SQL Server devono aggiornare il driver ODBC per SQL Server alla versione 18.x o successiva. Tenere presente che continuare a utilizzare il driver ODBC 17.x per SQL Server potrebbe provocare errori di dati. L'aggiornamento del driver può essere effettuato utilizzando l'utilità di installazione dei driver o manualmente. Per le istruzioni, vedere Configurazione del driver.

In questa sezione sono disponibili le informazioni sulle versioni del database con fine supporto.

  • Versioni delle sorgenti dati con fine supporto Il supporto per le seguenti versioni di sorgenti dati è stato interrotto:

    • PostgreSQL 10
    • MySQL 5.6
    • MariaDB 10.3
  • Versioni per la piattaforma di dati di destinazione con fine supporto Il supporto per le seguenti versioni di destinazioni dati è stato interrotto:

    • Databricks 9.1 LTS

7 settembre 2024

2022.11.74

15 agosto 2023

Abbiamo adottato un approccio che dà la precedenza al cloud, che consente una rapida innovazione e adozione. Tuttavia, ciò non significa che il nostro approccio si limita esclusivamente al cloud. Come parte del nostro continuo impegno per migliorare il valore a lungo termine per i nostri clienti, siamo lieti di annunciare il rilascio di un nuovo caso di utilizzo per la Replica per la creazione di progetti dati. Il nuovo caso di utilizzo di Replica è stato aggiunto alla possibilità esistente di creare pipeline di dati per tutte le esigenze relative alle integrazioni dati, come la modernizzazione dei data warehouse.

Il progetto Replica supporta la replica dei dati in tempo reale da sorgenti dati supportate in una destinazione supportata.

A partire da questa ultima versione, la prima destinazione a supportare la replica dei dati in tempo reale è Microsoft SQL Server. Oltre al supporto di Microsoft SQL Server in loco, sono supportati anche i seguenti provider cloud:

  • In loco
  • Amazon RDS
  • Google Cloud
  • Microsoft Azure (Microsoft Azure Managed Instance e Microsoft Azure Database)

I clienti che spostano dati in Microsoft Azure Synapse Analytics devono aggiornare il driver ODBC per SQL Server alla versione 18.x o successiva. Tenere presente che continuare a utilizzare il driver ODBC 17.x per SQL Server potrebbe provocare errori di dati. L'aggiornamento del driver può essere effettuato utilizzando l'utilità di installazione dei driver o manualmente. Per le istruzioni, vedere Configurazione del driver.

È stata introdotta una nuova opzione, Carica da origine, che consente ai clienti di leggere i propri dati direttamente dalla sorgente durante il caricamento completo, anziché utilizzare i dati nella cache.

Per maggiori informazioni su questa opzione, oltre ai casi di utilizzo, vedere Impostazioni di trasferimento.

Gateway di Data Movement 2022.11.74 include certificati CA aggiornati, che sono necessari per autenticare il tenant Qlik Cloud. I certificati CA aggiornati, inoltre, offrono supporto per l'Irlanda e Francoforte. Di conseguenza, i clienti con tenant Qlik Cloud in Irlanda o Francoforte che vogliono utilizzare Qlik Cloud Data Integration devono effettuare l'aggiornamento a questa versione.

Le attività di trasferimento dati da una sorgente Oracle potevano non essere completate se una tabella di grandi dimensioni conteneva colonne inutilizzate o non supportate, o colonne LOB che non erano replicate.

31 aprile 2024

2022.11.70

28 giugno 2023

Nelle versioni precedenti, i clienti dovevano eseguire il comando "source arep_login.sh" durante l'installazione dei client SAP. A partire da questa versione, non è più necessario eseguire questo comando.

Questa versione include certificati CA aggiornati, che sono necessari per autenticare il tenant Qlik Cloud.

  • Se un'attività di replica su Gateway di Data Movement non riesce e viene recuperata automaticamente, lo stato recuperato non verrà comunicato all'Asset dati di trasferimento in Qlik Cloud.

  • La crittografia end-to-end per Gateway di Data Movement dati potrebbe non venire abilitata per impostazione predefinita ed essere controllata da contrassegni in runtime.
15 settembre 2023

2022.11.63

2 maggio 2023

Questa versione introduce un'utilità di installazione dei driver che elimina il bisogno di installare e configurare manualmente i driver. La nuova utilità consente di velocizzare il processo di installazione riducendo allo stesso tempo in modo significativo la possibilità di un errore da parte dell'utente. Quando l'utilità è in esecuzione, il driver richiesto viene eseguito automaticamente, se possibile, e quindi installato. Se non è possibile scaricare il driver (i driver DB2 richiedono l'accesso, per esempio), è necessario semplicemente scaricare il driver, copiarlo in una cartella dedicata sul computer gateway di Data Movement, ed eseguire l'utilità.

Per un esempio sull'utilizzo dell'utilità di installazione del driver per installare un driver PostgreSQL, vedere Prerequisiti.

Il connettore Snowflake ora supporta i caratteri emoji a 4 byte.

Il connettore PostgreSQL ora può spostare i dati da data dal database di Azure per PostgreSQL - Server Flessibile.

Il connettore PostgreSQL ora può spostare i dati da Cloud SQL for PostgreSQL.

Questa versione introduce il supporto per le seguenti versioni della sorgente dati:

  • PostgreSQL 14
  • DB2 (per IBM DB2 per z/OS) 12.1
  • IBM DB2 per z/OS 2.5

Databricks 11.3 LTS

Le seguenti versioni di sorgenti dati non sono più supportate:

  • DB2 (per IBM DB2 per z/OS) 11
  • PostgreSQL 9.6
  • Microsoft SQL Server 2012
  • MariaDB 10.2

Questa versione risolve i seguenti problemi:

  • Sorgente dati Oracle: Quando si interrompe e si riprende un'attività, questa a volte può fallire visualizzando l'errore “Impossibile impostare la posizione del flusso in contesto”.
  • Sorgente applicazione SAP: le modifiche non vengono rilevate durante le attività di trasferimento.

15 settembre 2023

2022.5.13

19 ottobre 2022

Rilascio iniziale

2 agosto 2023

Disinstallazione di Gateway di Data Movement

Per disinstallare Gateway di Data Movement, eseguire il comando seguente:

rpm -e <installation package name>

Esempio:

rpm -e qlik-data-gateway-data-movement-2023.11-1.x86_64

Se non si conosce il nome del pacchetto, eseguire il seguente comando:

rpm -qa | grep qlik

Nota di avvisoLa disinstallazione di Gateway di Data Movement causerà l'interruzione di tutte le attività che attualmente utilizzano il gateway dati.

Hai trovato utile questa pagina?

Se riscontri problemi con questa pagina o con il suo contenuto – un errore di battitura, un passaggio mancante o un errore tecnico – facci sapere come possiamo migliorare!