Przeskocz do zawartości głównej Przejdź do treści uzupełniającej

Uaktualnianie i odinstalowywanie bramy Brama danych ruchu danych

W tym temacie wyjaśniono, jak uaktualnić lub odinstalować bramę Brama danych ruchu danych. Zawiera on także tabelę zmian wprowadzonych w poszczególnych wersjach bramy Brama danych ruchu danych.

Procedura aktualizacji

Aby sprawdzić bieżącą wersję, przejdź do Administracja > Bramy danych i sprawdź kolumnę Wersja odpowiadającą Twojej bramie Brama danych ruchu danych.

Jeśli dostępna jest nowa wersja, do numeru wersji dołączany jest znak !. Możesz wskazać kursorem , aby uzyskać więcej informacji. Jeśli zainstalowana wersja bramy nie jest obsługiwana, Status zostanie ustawiony na Dezaktywowano, a do aktywacji bramy będzie wymagana aktualizacja.

Kiedy będzie dostępna nowa wersja pakietu rpm Brama danych ruchu danych, należy ją pobrać zAdministrowanie i zaktualizować istniejącą instalację.

Wykonaj następujące czynności:

  1. Pobierz nową wersję, klikając na bramie, a następnie Uaktualnij.

    Potwierdź umowę z klientem i przejdź do pobierania pakietu RPM.

  2. Otwórz wiersz poleceń i zmień katalog roboczy na katalog zawierający plik RPM:
  3. Wykonaj następujące polecenie:

    Składnia:

    rpm -U <rpm name>

    Przykład:

    sudo rpm -U qlik-data-gateway-data-movement.rpm

  4. Uruchom usługę Data Movement gateway:

    sudo systemctl start repagent

  5. Opcjonalnie potwierdź, że usługa została uruchomiona:

    sudo systemctl status repagent

    Status powinien być następujący:

    Active: active (running) since <timestamp> ago

Historia wersji Brama danych ruchu danych

Wersja

Data wydania

Znaczące zmiany

Data zakończenia wsparcia

2024.5.28 12 listopada 2024 r. Dostarcza funkcje wymagane dla funkcji Ewolucja schematu, która zostanie wydana wkrótce. Ustalono termin wydania następnej wersji głównej
2024.5.27 5 listopada 2024 r.

W tym wydaniu rozwiązano następujące problemy:

  • Podczas korzystania z redo event 11.22 występowały brakujące operacje INSERT podczas przetwarzania wielu operacji INSERT na skompresowanej stronie, która nie została skompresowana przed nimi.
  • W rzadkich sytuacjach nieprawidłowe analizowanie zdarzeń operacji DELETE w rekordzie dziennika redo generowało ostrzeżenie "Zdarzenie DELETE dziennika redo zawiera nieznaną strukturę", po którym występowały różne problemy.

Instrukcje w pliku YAML zostały zaktualizowane, aby odzwierciedlać prawidłową wersję łącznika SAP Java.

Podczas korzystania z Data Movement Gateway do łączenia się z celem Snowflake za pośrednictwem serwera proxy połączenie nie udawało się i pojawiał się następujący komunikat o błędzie:

500 Failed to connect to Data Movement Gateway

Ustalono termin wydania następnej wersji głównej
2024.5.22 15 października 2024 r. Ta wersja rozwiązuje problem w zadaniu replikacji Pełne ładowanie + CDC, w którym pole Zadanie dotyczące danych jest zaktualizowane do dla zadania CDC pokazywało znacznik czasu pełnego ładowania zamiast znaczników czasu CDC. Ustalono termin wydania następnej wersji głównej
2024.5.16 8 października 2024 r.
    • Brakujące operacje INSERT występowały czasami w wielu operacjach INSERT podczas korzystania z redo event 11.22.
    • Po uaktualnieniu Oracle 19g do poprawki z lipca 2024 r. operacje UPDATE czasami nie były przechwytywane oraz wyświetlane było następujące ostrzeżenie:

      A compressed row cannot be parsed

  • Gdy ustawienia zadania były skonfigurowane tak, aby utworzyć schemat tabeli kontrolnej, zadanie kończyło się niepowodzeniem z następującym błędem:

    Failed to delete directory

  • Gdy zaplanowano okresowe uruchamianie zadania, czasami kończyło się ono niepowodzeniem z następującym komunikatem o błędzie:

    The task stopped abnormally

  • Zadania transformacji oraz pamięci masowej czasami zbyt długo pozostawały w stanie W kolejce.

  • Zadania kończyły się niepowodzeniem podczas korzystania z flagi funkcji use_manipulation_pk_for_apply w przypadku replikacji z zapisywaniem zmian.

  • Wydłużono limit czasu S3 do 6 godzin, aby zapobiec problemom wynikającym z przedłużających się przekroczeń limitów czasu, takich jak utrata tokena umożliwiającego pobieranie plików.

Ustalono termin wydania następnej wersji głównej
2024.5.14 10 września 2024 r.
  • Para kluczy stanowi skuteczniejszą metodę uwierzytelniania niż użytkownik/hasło podczas łączenia się ze Snowflake za pomocą kont usług. Podejście to jest zalecane w przypadku takich obciążeń jak ładowanie danych (replikacja lub zadania umieszczania) i transformacje.

  • W poprzednich wersjach odświeżanie metadanych na istniejącym lub nowo dodanym zestawie danych czasami kończyło się niepowodzeniem. To ulepszenie zapewnia, że metadane mogą być pobierane z wielu tabel równolegle bez żadnych problemów.

  • Gdy tabela źródłowa zawierała kolumnę z typem danych DECIMAL — na przykład DECIMAL (38, 20) — przygotowanie zadania pamięci masowej w Google BigQuery kończyło się niepowodzeniem z następującym komunikatem o błędzie (fragment):

    Column <n> in <table name> has incompatible types: STRING, BIGNUMERIC at [93:1]

    Problem został rozwiązany przez mapowanie źródłowego typu danych DECIMAL na DECIMAL w Google BigQuery.

  • Po wprowadzeniu zmian do istniejącej reguły schematu w zadaniu danych występował następujący błąd:

    QRI SQL error not implemented

  • W przypadku przygotowywania zadania umieszczania, które łączyło się ze źródłem aplikacji SAP, zadanie kończyło się pomyślnie, ale w pliku dziennika repsrv.log był zgłaszany następujący błąd:

    Invalid object name 'hk1./QTQVC/QRI'

Ustalono termin wydania następnej wersji głównej
2024.5.7 6 sierpnia 2024 r.
  • Poprzednio po wystąpieniu zmiany metadanych wszystkie tabele były usuwane i odtwarzane, nawet jeśli zmiana metadanych nie dotyczyła wszystkich tabel. Teraz będą usuwane i odtwarzane tylko zmienione tabele, co poprawi wydajność.

  • Tabele utworzone w źródłowej bazie danych podczas zadania replikacji danych, które pasują do wzorca dołączania, będą teraz automatycznie rejestrowane podczas CDC (rejestrowania danych zmian).

    • Poprzednio podczas odczytu wielu transakcji ze środowiska Microsoft SQL Server (MS-CDC) funkcja Qlik Talend Data Integration zachowywała tylko identyfikator i znacznik czasu pierwszej transakcji. W miejscu docelowym stwarzało to wrażenie, że rekordy są częścią pojedynczej transakcji. Teraz dla każdego pojedynczego rekordu Qlik Talend Data Integration będzie zachowywać oryginalny identyfikator transakcji oraz znacznik czasu. Rozwiązanie to jest korzystne dla klientów, którzy chcą wykorzystywać kolumny nagłówka identyfikatora transakcji i znacznika czasu w tabelach zmian.

    • Wcześniej bajty w identyfikatorze transakcji były kodowane w odwrotnej kolejności. Od tej wersji bajty będą kodowane we właściwej kolejności. Klienci, którzy wolą zachować dotychczasowe działanie, mogą to zrobić przy użyciu parametrów wewnętrznych. Aby uzyskać szczegółowe informacje, skontaktuj się z działem wsparcia Qlik.

  • Qlik Talend Data Integration obsługuje teraz buforowanie uwierzytelniania SHA-2 przy użyciu wtyczek (caching_sha2_password) podczas pracy ze źródłami lub miejscami docelowymi MySQL, lokalnie lub w chmurze. W poprzednich wersjach obsługiwane było tylko natywne uwierzytelnianie przy użyciu wtyczek (mysql_native_password).

  • Typy danych BYTES oraz BLOB będą teraz mapowane na VARBYTE w Amazon Redshift zamiast VARCHAR.

    • PostgreSQL 16

    • MySQL 8.1
    • IBM DB2 for z/OS 3.1
    • PostgreSQL 16
    • MySQL 8.1
    • Databricks 14.3 LTS
    • Sterownik SQL Server ODBC 18.3

Zakończono obsługę następujących wersji baz danych:

  • Wszystkie wersje i sterowniki Oracle starsze niż Oracle 19.x
  • Microsoft SQL Server 2014
  • MySQL 5.7
  • PostgreSQL 11
  • IBM DB2 for LUW 10.5
  • IBM DB2 for z/OS: z/OS 2.3
  • Gdy przechwycona zmiana dokumentu klastra usuwała wszystkie wiersze wszystkich przechwyconych tabel, pojawiały się komunikaty o braku operacji DELETE i niepotrzebnej asercji.

  • Zaktualizowano bibliotekę uwierzytelniania firmy Microsoft dla języka Java (MSAL4J) i Bouncy Castle do wersji, w których nie występują znane luki.

    • Zadanie czasami kończyło się niepowodzeniem podczas korzystania z wewnętrznej pamięci Snowflake.
    • Zadanie kończyło się niepowodzeniem, jeśli nazwa schematu docelowego zawierała japońskie znaki katakana.
  • Podczas wznawiania zadania ze źródłem Oracle zadanie nadal czekało na usunięty zarchiwizowany dziennik powtórzeń, zamiast zakończyć się niepowodzeniem i wyświetlić odpowiedni komunikat o błędzie.

Ustalono termin wydania następnej wersji głównej
2023.11.23 26 czerwca 2024 r.
  • Od tej wersji schemat metadanych Snowflake (dla plików tymczasowych) zostanie utworzony, jeśli nie będzie istnieć.

  • Po wprowadzeniu zmiany w regule Zmień nazwę zestawu danych (która łączyła nazwę tabeli z nazwą schematu) i dodaniu widoku do zadania umieszczania operacja przygotowania nie powiedzie się i spowoduje wyświetlenie następującego komunikatu o błędzie:

    QRI SQL error not implemented.

  • Zaktualizowano komponent java_file_factory do wersji bez żadnych znanych luk.
  • Zaktualizowano org.postgresql:postgresql do wersji bez żadnych znanych luk.
  • Podczas przenoszenia danych na SQL Server operacja przygotowania kończyła się niepowodzeniem, gdy nazwy indeksów przekraczały 128 znaków. Problem został rozwiązany przez zmianę logiki na tworzącą krótsze nazwy indeksów.
  • Podczas przenoszenia danych z SQL Server brak nazwy kolumny w definicjach tabeli powodował nieskończoną pętlę powiadomień w pliku repsrv.log i wyświetlenie następującego komunikatu:

    mssql_resolve_sqlserver_table_column_attributes(...) failed to find column

6 lutego 2025 r.

2023.11.11 21 maja 2024 r.
  • Dodano obsługę jednoczesnego pobierania metadanych dla wielu tabel.

  • Informacje monitorowania zadań umieszczania i replikacji będą teraz aktualizowane co 10 sekund (zamiast co 60 sekund), zapewniając dokładniejsze wskazanie ich bieżącego stanu.

  • Japonia jest teraz obsługiwana jako region dzierżawy Qlik Cloud.

  • Interwał ponownych prób między bramą danych a Qlik Cloud stale wzrastał, ale nigdy nie był resetowany (chyba że usługa została uruchomiona ponownie).
  • Podczas przenoszenia danych ze źródła aplikacji SaaS czasami podczas ponownego ładowania tabele przechodziły w stan błędu.
  • Zadania ze źródłem MySQL czasami kończyły się niepowodzeniem z powodu następującego błędu podczas CDC:

    Read next binary log event failed; mariadb_rpl_fetch error 0 Error reading binary log.

  • Wcześniej zdarzenia audytu CDC były rejestrowane tylko w przypadku zadań umieszczania. Teraz będą one rejestrowane w celu wykonania zadań replikacji.
  • Podczas przenoszenia danych z SQL Server (MS-CDC) rozpoczęcie zadań z wieloma tabelami trwało czasami kilka godzin.
  • Gdy tabela źródłowa zawierała kolumny CLOB, a wartość „Limit LOB size” przekraczała 10240, replikacja do Snowflake kończyła się niepowodzeniem z następującym komunikatem o błędzie:

    Invalid character length: 0

Ustalono termin wydania następnej wersji głównej
2023.11.4 12 marca 2024 r.

Klienci mogą teraz zainstalować bramę Brama danych ruchu danych w systemie Red Hat 9.x lub dowolnej odpowiedniej i kompatybilnej dystrybucji systemu Linux.

Konfigurowanie bramy Brama danych ruchu danych

Zmieniły się polecenia zatrzymania, uruchomienia i sprawdzenia stanu usługi Brama danych ruchu danych.

Polecenia usługi Brama danych ruchu danych

  • Typ danych BOOLEAN, który był mapowany do VARCHAR(1) w Amazon Redshift, będzie teraz mapowany do BOOLEAN.
  • Typy danych BYTES i BLOB, które były mapowane do VARCHAR(1) w Amazon Redshift, będą teraz mapowane do VARBINARY (długość).

W tej sekcji przedstawiono nowo obsługiwane bazy danych, wersje baz danych i wersje sterowników.

  • Nowo obsługiwane wersje i wydania źródeł danych

    Następujące wersje źródeł danych są już obsługiwane:

    • Azure Database for MySQL - Flexible Server (obsługa za pośrednictwem łącznika źródła MySQL)
    • MariaDB 10.4 - 10.11 (poprzednio 10.4 i 10.5)
  • Nowo obsługiwane docelowe platformy danych i ich wydania

    Następujące wersje docelowych platform danych są już obsługiwane:

    • Azure Database for MySQL - Flexible Server (obsługa za pośrednictwem łącznika miejsca docelowego MySQL)
    • Databricks: Databricks 13.3 LTS i Serverless SQL Warehouse
  • Nowo obsługiwana wersja sterownika SAP HANA

    Klienci używający źródła SAP HANA, którzy chcą zainstalować bramę Brama danych ruchu danych w systemie Red Hat Linux 9.x, muszą zainstalować 64-bitowy sterownik SAP HANA ODBC w wersji 2.0.19 lub nowszej.

W tej sekcji znajdują się informacje na temat wersji baz danych, których obsługa dobiegła końca.

  • Zakończono obsługę następujących wersji źródeł danych:

    • Oracle 11.x
    • SAP HANA 1.0
  • Instalacja bramy Brama danych ruchu danych bez podania hasła serwera uniemożliwi skonfigurowanie adresów URL dzierżawy i serwera proxy za pomocą jednego polecenia.
  • Przenoszenie danych ze źródła danych Salesforce (aplikacja SaaS) powodowało dużą liczbę zbędnych ostrzeżeń, co miało wpływ na wydajność ładowania danych.
  • Jeśli podczas pobierania zmian dla źródła danych aplikacji SaaS wystąpił błąd w trakcie pobierania zmian w jednej z tabel, tabela ta była zawieszana i usuwana z potoku. Teraz w przypadku napotkania błędu zadanie spróbuje pobrać zmiany maksymalnie trzy razy przed zawieszeniem tabeli.
Ustalono termin wydania następnej wersji głównej
2023.5.16 9 stycznia 2024 r.

Zwiększamy liczbę obsługiwanych miejsc docelowych projektów replikacji w Qlik Cloud Data Integration. Oprócz Amazon S3 można teraz wybrać także Azure Data Lake Storage (ADLS) i Google Cloud Storage (GCS) do dostarczania danych do jezior danych w formatach plików Parquet, JSON lub CSV.

  • Połączenie z IBM DB2 for LUW kończyło się niepowodzeniem, kiedy rozmiar plików potrzebnych do tego połączenia (np. plik certyfikatu klienta i magazynu kluczy SSL) przekraczał 4 KB.

  • Instalacja sterownika DB2 kończyła się niepowodzeniem w przypadku użycia narzędzia do instalacji sterowników.

7 września 2024 r.

2023.5.15 12 grudnia 2023 r.

Microsoft Fabric dołącza do wciąż powiększającej się listy hurtowni danych, których można używać jako miejsc docelowych w projektach potoków danych.

Zaktualizowano wersję sterownika Snowflake w narzędziu do instalacji sterowników.

7 września 2024 r.

2023.5.10 31 października 2023 r.

Z połączenia prywatnego można korzystać, aby zapewnić bezpieczeństwo i zgodność transmisji danych. Upraszcza zarówno zarządzanie siecią, jak i bezpieczeństwo witrtualnej chmury prywatnej (VPC) bez konieczności otwierania portów transmisji przychodzącej zapory, stosowania urządzeń proxy lub tabel routingu. Integracja danych Qlik Cloud obsługuje już prywatne połączenia z docelowymi potokami danych Snowflake, Microsoft SQL Server i Amazon S3. W tej wersji klienci mogą dodatkowo korzystać z połączeń prywatnych podczas przenoszenia danych do Databricks, Microsoft Azure Synapse, Google BigQuery i Amazon Redshift.

  • Wszystkie źródła danych oparte na PostgreSQL — obsługa wielozakresowych typów danych: następujące wielozakresowe typy danych są teraz obsługiwane we wszystkich źródłach danych opartych na PostgreSQL (lokalnych i w chmurze).

    • INT4MULTIRANGE
    • INT8MULTIRANGE
    • NUMMULTIRANGE
    • TSMULTIRANGE
  • Źródło danych AWS Aurora Cloud dla PostgreSQL — obsługa roli innej niż superużytkownik: użytkownik określony w łączniku PostgreSQL nie musi już mieć roli superużytkownika, aby przenosić dane ze źródła danych AWS Aurora Cloud dla PostgreSQL. Jest to szczególnie przydatne w organizacjach, których korporacyjne zasady zabezpieczeń uniemożliwiają przyznanie dostępu superużytkownika użytkownikom nieuprzywilejowanym.

Klienci przenoszący dane ze źródła danych Microsoft Azure SQL (MS-CDC) mogą teraz korzystać z bazy danych Geo Replica.

Integracja danych Qlik Cloud obsługuje teraz odczytywanie danych z zaszyfrowanych obszarów tabel Oracle i zaszyfrowanych kolumn podczas CDC.

Integracja danych Qlik Cloud obsługuje teraz dzierżawy w regionach DE i UK.

W tej sekcji wymieniono nowe obsługiwane wersje baz danych i sterowników.

  • Nowe obsługiwane wersje źródeł danych. Następujące wersje źródeł danych są już obsługiwane:

    • Microsoft SQL Server 2022
    • Oracle 21c
    • PostgreSQL 15
    • DB2 13.1 (podczas pracy z IBM DB2 do z/OS)
    • IBM DB2 for iSeries 7.5
  • Nowe obsługiwane wersje docelowych platform danych. Następujące wersje docelowych platform danych są już obsługiwane:

    • Databricks (pamięć w chmurze): Databricks 12.2 LTS i Databricks SQL Serverless
  • Wersje sterowników. Następujące wersje sterowników ODBC są już obsługiwane:

    • IBM Data Server Client 11.5.8 do IBM DB2 for z/OZ i IBM DB2 do LUW
    • Sterowanik ODBC Simba 3.0.0.1001 do Google Cloud BigQuery
    • 64-bitowy sterownik Unicode MySQL ODBC 8.0.32

Klienci przenoszący dane do lub z Microsoft SQL Server muszą uaktualnić wersję sterownika ODBC SQL Server do wersji 18.x lub nowszej. Należy pamiętać, że dalsze używanie sterownika ODBC SQL Server w wersji 17.x może powodować błędy danych. Sterownik można zaktualizować przy użyciu narzędzia do instalacji sterowników lub ręcznie. Instrukcję można znaleźć w sekcji Konfiguracja sterownika.

W tej sekcji znajdują się informacje na temat wersji baz danych, których obsługa dobiegła końca.

  • Wersje źródeł danych, których obsługa dobiegła końca. Zakończono obsługę następujących wersji źródeł danych:

    • PostgreSQL 10
    • MySQL 5.6
    • MariaDB 10.3
  • Wersje docelowych platform danych, których obsługa dobiegła końca. Zakończono obsługę następujących wersji celów danych:

    • Databricks 9.1 LTS

7 września 2024 r.

2022.11.74

15 sierpnia 2023 r.

Stosujemy podejście zorientowane na chmurę, które umożliwia szybkie wprowadzanie innowacji i wdrażanie. Nie oznacza to jednak, że ograniczamy się wyłącznie do chmury. W ramach ciągłego zwiększania długoterminowej wartości dla naszych klientów z przyjemnością ogłaszamy wydanie nowego zastosowania replikacji podczas tworzenia projektów danych. Nowe zastosowanie replikacji stanowi uzupełnienie istniejącej możliwości tworzenia potoków danych dla wszystkich potrzeb związanych z integracją danych, takich jak modernizacja hurtowni danych.

Projekt replikacji obsługuje replikację danych w czasie rzeczywistym z obsługiwanych źródeł danych do obsługiwanego miejsca docelowego.

Począwszy od najnowszego wydania pierwszym miejscem docelowym obsługującym replikację danych w czasie rzeczywistym jest Microsoft SQL Server. Oprócz obsługi lokalnego serwera Microsoft SQL Server obsługiwani są także następujący dostawcy usług w chmurze:

  • Lokalnie
  • Amazon RDS
  • Google Cloud
  • Microsoft Azure (Microsoft Azure Managed Instance i Microsoft Azure Database)

Klienci przenoszący dane do Microsoft Azure Synapse Analytics muszą uaktualnić wersję sterownika ODBC SQL Server do wersji 18.x lub nowszej. Należy pamiętać, że dalsze używanie sterownika ODBC SQL Server w wersji 17.x może powodować błędy danych. Sterownik można zaktualizować przy użyciu narzędzia do instalacji sterowników lub ręcznie. Instrukcję można znaleźć w sekcji Konfiguracja sterownika.

Wprowadzono nową opcję Ładuj ze źródła, która umożliwia klientom odczyt danych bezpośrednio ze źródła podczas pełnego ładowania zamiast używania danych z pamięci podręcznej.

Więcej informacji o tej opcji i jej zastosowaniach można znaleźć w temacie Ustawienia umieszczania.

Brama danych ruchu danych 2022.11.74 zawiera zaktualizowane certyfikaty CA, które są potrzebne do uwierzytelniania dzierżawy Qlik Cloud. Zaktualizowane certyfikaty CA zapewniają też obsługę regionów Irlandia i Frankfurt. W związku z tym klienci mający dzierżawy w Irlandii lub Frankfurcie, którzy chcą korzystać z Integracji danych Qlik Cloud, muszą dokonać aktualizacji do tej wersji.

Zadania umieszczania danych ze źródła Oracle czasami kończyły się niepowodzeniem, jeżeli szeroka tabela zawierała nieużywane lub nieobsługiwane kolumny albo kolumny LOB, które nie były replikowane.

31 kwietnia 2024 r.

2022.11.70

28 czerwca 2023 r.

W poprzednich wersjach klienci musieli uruchamiać polecenie „source arep_login.sh” podczas instalowania klientów SAP. Od tej wersji uruchamianie tego polecenia nie jest już konieczne.

Ta wersja zawiera zaktualizowane certyfikaty CA, które są potrzebne do uwierzytelniania dzierżawy Qlik Cloud.

  • Kiedy zadanie replikacji w Brama danych ruchu danych kończyło się niepowodzeniem i było automatycznie przywracane, zasób danych do umieszczenia w Qlik Cloud nie był informowany o stanie przywrócenia.

  • Kompleksowe szyfrowanie Brama danych ruchu danych nie było włączane domyślnie i było kontrolowane przy użyciu flag środowiska uruchomienia.
15 września 2023 r.

2022.11.63

2 maja 2023 r.

W tej wersji wprowadzono narzędzie do instalacji sterowników, które eliminuje konieczność ręcznej instalacji i konfiguracji sterowników. Nowe narzędzie przyspiesza instalację, a jednocześnie znacznie zmniejsza prawdopodobieństwo błędu użytkownika. Po uruchomieniu narzędzia wymagany sterownik jest w miarę możliwości pobierany automatycznie i instalowany. Jeżeli nie można pobrać sterownika (na przykład sterowniki do DB2 wymagają logowania), trzeba tylko pobrać sterownik, skopiować go do specjalnego folderu na urządzeniu z bramą ruchu danych i uruchomić narzędzie.

Przykład używania narzędzia do instalacji sterowników w celu zainstalowania sterownika PostgreSQL zawiera temat Wymagania wstępne

Łącznik Snowflake obsługuje obecnie 4-bajtowe znaki emoji.

Łącznik PostgreSQL może teraz przenosić dane z Azure Database for PostgreSQL - Flexible Server.

Łącznik PostgreSQL może teraz przenosić dane z Cloud SQL for PostgreSQL.

W tej wersji wprowadzono obsługę następujących nowych wersji źródeł danych:

  • PostgreSQL
  • DB2 (for IBM DB2 for z/OS) 12.1
  • IBM DB2 for z/OS 2.5

Databricks 11.3 LTS

Następujące wersje źródeł danych nie są już obsługiwane:

  • DB2 (for IBM DB2 for z/OS) 11
  • PostgreSQL 9.6
  • Microsoft SQL Server 2012
  • MariaDB 10.2

W tej wersji rozwiązano następujące problemy:

  • Źródło danych Oracle: Podczas zatrzymywania i wznawiania zadania czasami występował błąd „Failed to set stream position on context”.
  • Źródło aplikacji SAP: Zmiany nie były uwzględniane podczas zadania umieszczania.

15 września 2023 r.

2022.5.13

19 października 2022 r.

Pierwsze wydanie

2 sierpnia 2023 r.

Odinstalowywanie programu Brama danych ruchu danych

Aby odinstalować Brama danych ruchu danych, uruchom następujące polecenie:

rpm -e <installation package name>

Przykład:

rpm -e qlik-data-gateway-data-movement-2023.11-1.x86_64

Jeśli nie znasz nazwy pakietu, uruchom polecenie:

rpm -qa | grep qlik

OstrzeżenieOdinstalowanie bramy Brama danych ruchu danych spowoduje niepowodzenie wszystkich zadań aktualnie z niej korzystających.

Czy ta strona była pomocna?

Jeżeli natkniesz się na problemy z tą stroną lub jej zawartością — literówkę, brakujący krok lub błąd techniczny — daj nam znać, co możemy poprawić!