Обновление и удаление Шлюз движения данных | Qlik Cloud Справка
Перейти к основному содержимому Перейти к дополнительному содержимому

Обновление и удаление Шлюз движения данных

В этом разделе объясняется, как обновить или удалить установку Шлюз движения данных. Также приводится таблица с перечнем изменений, внесенных в каждую версию Шлюз движения данных.

Процедура обновления

Чтобы проверить текущую версию, выберите Администрирование > Шлюзы данных и проверьте столбец Версия, соответствующий вашей версии Шлюз движения данных.

Если доступна новая версия, к номеру версии будет добавлен символ !. Вы можете навести курсор на Информация, чтобы получить дополнительную информацию.

Примечание к информацииВерсии иногда выпускаются в виде патчей. Восклицательный знак будет отображаться только в том случае, если доступен новый стандартный релиз (в отличие от патч-релиза). Чтобы узнать, является ли версия патч-релизом или стандартным релизом, см. столбец Тип в таблице истории версий Шлюз движения данных ниже.

Если установленная версия шлюза не поддерживается, в поле Статус будет указано Деактивировано, и для активации шлюза потребуется обновление.

Как только становится доступна новая версия rpm-пакета Шлюз движения данных, ее следует загрузить из Администрирование и обновить существующую установку.

Для этого:

  1. Загрузите новую версию, нажав Еще на шлюзе, а затем выбрав Обновить.

    Примите условия клиентского соглашения и перейдите к загрузке RPM.

  2. Откройте командную строку оболочки и перейдите в рабочий каталог, содержащий RPM-файл.
  3. Выполните следующую команду:

    Синтаксис:

    rpm -U <rpm name>

    Пример:

    sudo rpm -U qlik-data-gateway-data-movement.rpm

  4. Запустите службу Data Movement Gateway:

    sudo systemctl start repagent

  5. При необходимости подтвердите, что служба запущена:

    sudo systemctl status repagent

    Статус должен быть следующим:

    Active: active (running) since <timestamp> ago

История версий Шлюз движения данных

Версия

Тип

Дата выпуска

Значимые изменения

Дата окончания поддержки

2025.11.23 Стандартный 11 марта 2026 г.

Функциональность параллельной загрузки теперь поддерживает целевую систему Databricks.

Параллельная репликация сегментов набора данных

Управляющая таблица attrep_ddl_history (история DDL) содержит историю изменений DDL, произошедших в источнике во время репликации в целевую систему.

Теперь поддерживаются следующие целевые конечные точки:

  • Google BigQuery
  • Google Cloud Alloy DB for PostgreSQL
  • Google Cloud SQL для PostgreSQL
  • PostgreSQL (локально)

История DDL

При использовании Таблиц изменений в формате Parquet столбец заголовка [header]__change_mask теперь дополняет нули слева (вместо справа), чтобы соответствовать правилу little endian хранения байтов в обратном порядке.

Затронутые целевые конечные точки:

  • Amazon S3

  • Google Cloud Storage

Таблицы изменений

  • Целевая система Kafka: 4.0.x

  • Источник IBM z/OS: 3.2

  • Драйвер Microsoft ODBC 18.5
  • MySQL 8.4

Прекращена поддержка Microsoft Azure Database for MySQL и Microsoft Azure Database for PostgreSQL, поддержка которых официально прекращена Microsoft.

  • Цель Databricks: 10.4 LTS и 11.3 LTS

  • MariaDB источник и цель: 10.5

  • PostgreSQL источник и цель: 13.x

  • MySQL источник и цель: 8.1

  • Драйвер Microsoft ODBC 18.3

Устраненные проблемы

  • Задачи, настроенные на использование источника SAP (Приложение) с фоновым процессом, который генерировал события с автоматической фиксацией, иногда аварийно завершались после перезагрузки таблицы.

  • При гомогенной репликации, во время работы в режиме «Transactional apply» или в режиме «Batch Optimized Apply», который переключался на пошаговый режим, возникала ошибка «0 rows affected», если столбец DATETIME был частью первичного ключа в целевой базе данных.

  • Задача Oracle аварийно завершается при полной загрузке, если таблица содержит столбец long raw, а максимальный размер lob больше или равен 64 КБ.

  • Во время перезагрузки таблицы длительные задания SAP CDC иногда отменяются. Это приводило к состоянию восстановимой ошибки, при котором выгрузка никогда не завершалась.

  • Следующие компоненты были обновлены из-за известных уязвимостей:

    • JRE обновлена с 17.0.17 до 17.0.18
    • org.eclispe.jetty:jetty-io обновлен с 11.0.25 до 11.0.26

    • org.apache.logging.log4j:log4j-core обновлен с 2.23.1 до 2.25.3

  • Во время CDC возникала следующая ошибка, если для таблицы был определен фильтр:

    Invalid value for parameter "I_DIMNAME"

  • Дельта переставала работать, если задача была остановлена и возобновлена, пока одна из таблиц находилась в состоянии загрузки.

    • Во время полной загрузки при подключении к промежуточной папке S3 задача иногда завершалась с ошибкой:

      Unable to execute HTTP request: Connect to s3.amazonaws.com:443

      Проблема была решена путем внедрения механизма многократных повторных попыток подключения к папке S3, если первое соединение было неудачным.

    • Привилегия CREATE SCHEMA требовалась, даже если схема уже существовала.

  • Иногда происходила потеря данных в столбцах LOB, а при CDC происходила некорректная репликация данных, если в настройках задачи для размера LOB было установлено значение «без ограничений».

  • Ошибка загрузки CSV-файла в таблицу Net Changes возвращала восстановимую ошибку (приводящую к бесконечному циклу) вместо переключения на пошаговое применение.

  • Когда схема источника и цели находились в одном экземпляре MySQL, а репликация включала контрольную таблицу, задача иногда аварийно завершалась с ошибкой «Process crashed with signal 11».

  • Во время CDC задача иногда считывала одни и те же записи WAL снова и снова, в результате чего данные не захватывались.

    • Возникала ошибка при распаковке журнала транзакций, содержащего зашифрованные блоки. Проблема была решена путем оставления журнала сжатым в таких случаях.

    • Отображались избыточные ошибки при использовании альтернативной папки резервного копирования из-за ненужной проверки существующих файлов.

    • Задача иногда аварийно завершалась после вызова DBCC Lookup.

2025.5.41 Патч 15 февраля 2026 г. Исправлена проблема, при которой статус CDC не отображался в мониторе. 11 сентября 2026 г.
2025.5.40 Стандартный 10 февраля 2026 г.

Новая версия Шлюз движения данных представляет поддержку коннектора цели Kafka. Легко реплицируйте данные из любого поддерживаемого источника напрямую в локальный Kafka или Amazon MSK, обеспечивая надежные, отказоустойчивые передачи, которые поддерживают гибкость и информированность ваших приложений. Независимо от того, поддерживаете ли вы согласованность данных между системами или обеспечиваете аналитику, этот коннектор обеспечивает репликацию с низкой задержкой при минимальной настройке.

Для получения дополнительной информации см. Kafka цель

  • При репликации набора данных из схемы MySQL в другую схему MySQL, работающую на том же экземпляре сервера MySQL, и включении контрольной таблицы в репликацию, CDC завершался с ошибкой:

    Process crashed with signal 11

  • Возобновление задачи, пока таблица все еще находилась в состоянии полной загрузки, приводило к сбою задания извлечения и приостановке таблицы.

15 августа 2026 г.
2025.5.32 Патч 13 января 2026 г.
  • Ошибка загрузки CSV-файла в таблицу Qlik Net Changes возвращала восстановимую ошибку (приводящую к бесконечному циклу) вместо переключения на пошаговое применение.

  • Во время полной загрузки задачи иногда завершались с ошибкой из-за того, что Amazon активно отклонял соединение:

    Unable to execute HTTP request: Connect to s3.amazonaws.com:443

    Проблема была решена путем внедрения механизма повторных попыток с максимумом в три попытки до возникновения ошибки.

  • Возникала ошибка при распаковке журнала транзакций, содержащего зашифрованные блоки. Проблема была решена путем оставления журнала сжатым в таких случаях.

  • При возобновлении задачи CDC после внесения изменений в источник задача иногда завершалась с ошибкой:

    Cannot change column title from type VARCHAR(8000) to VARCHAR(3) because reducing the byte-length of a varchar is not supported.

  • Отображались избыточные ошибки при использовании альтернативной папки резервного копирования из-за ненужной проверки существующих файлов.

10 августа 2026 г.
2025.5.22 Стандартный 25 ноября 2025 г.

Начиная с этой версии, задача данных будет создавать первичный ключ в целевых таблицах Databricks Delta, используя ключевое слово RELY. Хотя Databricks не применяет ограничения на создание первичного ключа, предполагается, что первичные ключи с ключевым словом RELY не имеют дубликатов, поэтому они могут использоваться Databricks для оптимизации запросов.

Условия:

  • Необходимо выбрать каталог в настройках коннектора.

  • Databricks 14.2 или более поздней версии

  • IBM DB2 для источников iSeries: Добавлена поддержка следующих типов данных: BINARY-DECIMAL и ZONED-DECIMAL

  • Цель Databricks: В предыдущих версиях типу BYTES соответствовал тип STRING. Начиная с этой версии, этому типу будет соответствовать тип VARCHAR (длина в байтах)

  • Цель Google Cloud BigQuery: подтип JSON теперь поддерживается целью в Google Cloud BigQuery

Репликация (полная загрузка и CDC) разделов и подразделов (и подразделов еще более низкого уровня) из источников данных на базе PostgreSQL теперь поддерживается по умолчанию.

Цель Google Cloud BigQuery теперь поддерживает обработку данных, связанных с усечением данных. Если возникает ошибка усечения данных, теперь можно выбрать: регистрировать запись в таблицу управления исключениями (по умолчанию), игнорировать запись, приостанавливать таблицу или останавливать задачу.

Теперь поддерживаются следующие версии целевых и исходных конечных точек:

  • MariaDB (локально) и Amazon RDS для MariaDB: 11.4

  • MySQL (локально), MySQL Percona, Google Cloud SQL for MySQL, Amazon RDS for MySQL и Microsoft Azure Database for MySQL — Flexible Server: 8.4

  • PostgreSQL (локально), Google Cloud SQL for PostgreSQL, Amazon RDS for PostgreSQL и Microsoft Azure Database for PostgreSQL — Flexible Server: 17.x

Теперь поддерживается IBM Data Server Client 11.5.9 для следующих источников DB2:

  • IBM DB2 для LUW

  • IBM DB2 для z/OS

  • Устаревшие источники и цели: прекращена поддержка Microsoft Azure Database for MySQL и Microsoft Azure Database for PostgreSQL, поддержка которых официально прекращена Microsoft.

  • Устаревшие версии источников: IBM DB2 for iSeries 7.2 больше не поддерживается в связи с прекращением поддержки производителем.

  • Устаревшие версии драйверов: прекращена поддержка IBM Data Server Client 11.5.6.

Устраненные проблемы

  • HSTS не был включен на машине Шлюз данных Qlik — движение данных.

  • Установка Шлюз движения данных на Redhat версии 9.7 завершалась с ошибкой «OPENSSL_3.4.0 not found».

  • Во время CDC задача продолжала считывать одни и те же записи WAL и обрабатывать одну и ту же позицию потока.

  • После остановки задачи CDC во время изменений (например, из-за проблем с подключением) возобновление задачи иногда приводило к ошибкам длины строки.

  • Журналы подключения к источнику были недоступны после выполнения задачи, использующей коннектор Preview или Lite.

  • Вкладка Монитор не показывала сообщение об ошибке, когда таблица была приостановлена во время этапа CDC полной загрузки и задачи CDC.

13 июля 2026 г.
2024.11.95 Стандартный 4 ноября 2025 г.

Поддержка создания витрин знаний (knowledge marts) на Databricks

Ранее витрины знаний поддерживались только на Snowflake. Теперь создавать и запускать витрины знаний, в том числе и файловые, можно на Databricks.

Устраненные проблемы:

Задачи периодически завершались с ошибкой во время подготовки:

The request was canceled due to the configured HttpClient.Timeout of 300 seconds elapsing.

25 мая 2026 г.
2024.11.90 Стандартный 21 октября 2025 г.

Устраненные проблемы:

Когда свойство metadataschema Internal было определено со специальными символами, задача завершалась с ошибкой во время CDC.

4 мая 2026 г.
2024.11.84 Патч 16 сентября 2025 г.

Устраненные проблемы:

  • Клиенты в регионе EU-Central-1 сталкивались с частыми производственными оповещениями при использовании Шлюз движения данных.

  • При репликации данных из Jira таблица USERS зависала в статусе Queued при первом запуске, в то время как остальные таблицы успешно завершали загрузку.

  • Мониторинг CDC отсутствовал в мониторе задач.

  • Задачи репликации Oracle-в-Oracle иногда завершались с ошибкой из-за некорректного вычисления длины строки.

  • Серверный компонент Java (sqlite-jdbc) был обновлен до 3.47.0 из-за известной уязвимости в более ранних версиях.

  • Ошибка «No license for database» иногда возникала, когда задача запускалась в режиме возобновления в первый раз, без предварительного запуска.

  • Добавление новых наборов данных в задачу промежуточного хранения с источником данных Salesforce приводило к сбою задачи с ошибкой «'Table doesn't exist'».

21 апреля 2026 г.
2024.11.78 Стандартный 3 сентября 2025 г.
Примечание к предупреждению

Клиенты, использующие цель Snowflake, должны обновить свой драйвер Snowflake после завершения обновления Шлюз движения данных. В противном случае задачи будут завершаться с ошибкой.

Инструкции см. в разделе Настройка драйвера

  • Задачи хранения завершались с ошибкой подключения, требовавшей перезапуска шлюза.

  • Установка драйвера DB2 завершалась с ошибкой при ограничении доступа к папке /tmp.

  • После обновления до версии Шлюз движения данных 2024.11.65 время подключения к Qlik Cloud стало чрезмерно долгим. Проблема была решена путем добавления токена отмены с двухминутным тайм-аутом.

  • После обновления до Шлюз движения данных 2024.11.67 служба external-data-provider (используемая коннекторами Lite) завершалась аварийно из-за ограничений доступа к папке /tmp.

  • Следующие компоненты были заменены на более поздние версии из-за известных уязвимостей:

    • SQLite 3.49.1

    • Java Runtime Engine 17.0.15

    • org.bouncycastle:bcpkix-fips 2.0.7 (bcpkix-fips-2.0.7.jar)

    • org.bouncycastle:bc-fips 2.0.0 (bc-fips-2.0.0.jar)

  • Подключение к SMB завершалось с ошибкой:

    SmbConnection' object has no attribute 'docs_path'

  • При подготовке задачи во второй раз, если после первой подготовки происходил DDL, операция подготовки иногда завершалась с ошибкой (выдержка):

    Could not find match between landing metadata with gateway task metadata for the following tables: <name>

  • Опция предварительного просмотра данных не работала при использовании цели Microsoft SQL Server.

  • Эта версия добавляет поддержку использования Шлюз движения данных с Qlik Cloud Government DoD.

16 марта 2026 г.
2024.11.70 Стандартный 12 августа 2025 г.
  • Новая настройка Number of retries before returning a table error была добавлена в настройки обработки ошибок таблицы для задач репликации и промежуточного хранения. Ранее при возникновении ошибки таблицы она приостанавливалась или задача останавливалась (в соответствии с выбранным действием обработки ошибок). Иногда это приводило к приостановке таблиц во время окна обслуживания SaaS-приложения. С этой новой опцией теперь можно определить, сколько раз следует повторить попытку для таблицы, прежде чем сработает политика обработки ошибок таблицы. Эта опция особенно полезна, если ваше SaaS-приложение проходит периодическое обслуживание, так как вы можете переопределить количество повторных попыток по умолчанию (3), чтобы обслуживание могло быть завершено без срабатывания политики обработки ошибок таблицы.

    Обработка ошибок таблицы

    Примечание к информацииЭта опция будет отображаться только для задач, настроенных с коннектором Lite или Standard SaaS-приложения.
  • При предварительном просмотре SQL-преобразования результаты теперь будут включать типы данных столбцов.

    Предварительный просмотр данных

3 марта 2026 г.
2024.11.67 Стандартный 29 июля 2025 г.
  • Политика ротации и очистки была внедрена для файлов журналов репликации на машине шлюза. Политика ротации предотвратит чрезмерное увеличение файлов журналов (что влияет на производительность и анализ), а политика очистки предотвратит их накопление и потребление избыточного дискового пространства.

  • При перезагрузке приостановленной таблицы статус таблицы, отображаемый в мониторе, иногда был некорректным.

  • При подготовке задачи промежуточного хранения после добавления набора данных иногда возникал тайм-аут на этапе каталогизации ресурсов. Это приводило к сбою операции подготовки.

12 февраля 2026 г.
2024.11.65 Патч 22 июля 2025 г.

Этот патч устраняет следующие проблемы:

  • При добавлении новой таблицы в задачу репликации и нажатии Подготовить иногда возникала следующая ошибка:

    Prepare data task failed: Object reference not set to an instance of an object.

  • Следующие файлы установки Шлюз движения данных были обновлены до версий без известных уязвимостей:

    • java

    • jetty-io-<version>.jar

    • jetty-http-<version>.jar

    • spring-expression-<version>.jar

    • spring-core-<version>.jar

    • spring-context-<version>.jar

29 января 2026 г.
2024.11.61 Патч 15 июля 2025 г. Установка ai-local-agent (требуется для подключения к векторной базе данных и LLM) на машину с Python 3.12 завершалась с ошибкой. Этот патч решает проблему. 22 января 2026 г.
2024.11.59 Патч 1 июля 2025 г.

Этот патч устраняет следующие проблемы:

  • После обновления до Шлюз движения данных 2024.11.54 подключение к базе данных завершалось с ошибкой.

  • Подготовка задачи данных завершалась с ошибкой, когда задача была настроена с источником SaaS-приложения и целью Google BigQuery.

  • Задачи с источниками данных на базе Java завершались с ошибкой после обновления до Шлюз движения данных 2024.11.54.

  • Во время CDC, когда столбец STRING в исходной таблице превышал 65536 байт, данные усекались в целевом столбце STRING. Затем задача переключалась в режим применения «one-by-one».

  • Файлы java_file_factory.jar и arep-google-cloud.jar были обновлены до версий без известных уязвимостей.

15 января 2026 г.
2024.11.54 Патч 17 июня 2025 г.

Этот патч устраняет следующие проблемы:

  • Во время полной загрузки задача удаляла и воссоздавала целевые таблицы, даже если задача была настроена с параметром If target table already exists: Ignore

  • После остановки и подготовки существующей задачи репликации с режимом репликации, установленным на полную загрузку и применение изменений, счетчик обработанных записей CDC увеличивался, что приводило к некорректному подсчету.

  • Когда в существующую задачу добавлялся новый набор данных, задача завершалась с ошибкой:

    Could not find a match between landing metadata and gateway task metadata for the following tables: <name>

  • Проверка подключения к источникам SAP и SQL завершалась с ошибкой.

  • После обновления шлюза задачи иногда не возобновлялись, как ожидалось.

1 января 2026 г.
2024.11.45 Стандартный 20 мая 2025 г.

Поддержка Snowpipe Streaming

Ранее массовая загрузка была единственным доступным методом загрузки данных в Snowflake. Теперь для подключения или репликации данных в Snowflake клиенты могут использовать массовую загрузку или потоковую загрузку Snowpipe Streaming.

Преимущества Snowpipe Streaming по сравнению с массовой загрузкой

  • Менее затратный метод: так как хранилище Snowflake не используется, операционные расходы должны быть значительно ниже (но не всегда, так как расходы также зависят от конкретного сценария использования).
  • Меньше задержка: данные передаются напрямую в целевые таблицы (нет промежуточного хранения), поэтому репликация из источника данных в целевую систему должна происходить быстрее.

Устраненные проблемы

Этот патч устраняет следующие проблемы:

  • При просмотре баз данных с использованием коннектора Microsoft Fabric возникала следующая ошибка (выдержка):

    Create connection failed'' with error 'java.lang.NoSuchMethodError

    Проблема была вызвана несовместимостью с JDBC-драйвером 12.9.0-preview.jar, который был установлен с помощью утилиты настройки драйвера. Утилита теперь обновлена для установки совместимого драйвера.

  • После обновления Шлюз движения данных или перезапуска службы Шлюз движения данных сервер Java (требуется для коннекторов на базе Java, таких как SAP ODP) не запускался.

    • Сквозное шифрование не применялось взаимно для полезных нагрузок команд ведения журнала, которые возвращали журналы, размещенные клиентом, из центра администрирования Qlik Cloud.

    • Версия SQLite, используемая Шлюз движения данных, была обновлена из-за уязвимости в версии 3.42.0 (CVE-2023-7104).

    • Файл com.h2database, используемый Шлюз движения данных, был обновлен из-за уязвимости в версии h2-2.1.212 (CVE-2022-45868).

17 декабря 2025 г.
2024.11.34 Патч 1 апреля 2025 г.

Этот патч устраняет следующую проблему при перемещении данных из источника IBM DB2 для iSeries:

При использовании iSeries Access ODBC Driver 07.01.026 или более поздней версии задача завершалась с ошибкой «Error parsing» во время CDC.

20 ноября 2025 г.
2024.11.30

Стандартный

18 марта 2025 г.

Теперь можно установить подключение к цели Databricks, используя проверку подлинности OAuth ― метод, который Databricks рекомендует для проверки подлинности учетных записей. Проверка подлинности с помощью персонального токена доступа пока останется доступной для обеспечения обратной совместимости, но она считается менее безопасной, чем OAuth.

  • Когда набор данных был определен с параллельной загрузкой, а полная загрузка впоследствии была отключена, задача все равно выполняла полную загрузку этого набора данных, даже при возобновлении с метки времени.

1 октября 2025 г.

2024.11.24

Патч

11 марта 2025 г.

Этот патч устраняет следующие проблемы:

  • Генерация метаданных не завершалась для таблиц с точкой в названии (например, Deprec.Area).

  • Задачи восстанавливались только один раз, если они завершались с ошибкой во время полной загрузки из-за проблем со средой. Теперь они будут восстанавливаться столько раз, сколько настроено в Settings > Error handling > Environmental errors > Maximum retry count.

18 сентября 2025 г.
2024.11.14 Стандартный 25 февраля 2025 г.

Улучшения

Сертификация отказоустойчивости PostgreSQL

Работа с вторичной базой данных в случае переключения после отказа сертифицирована для следующих источников данных (доступ к которым можно получить с помощью коннектора источника PostgreSQL):

  • Google Cloud SQL для PostgreSQL
  • Amazon RDS для PostgreSQL
  • PostgreSQL (локально)

См. также: Настройка переключения в случае отказа

Улучшение производительности MySQL

В предыдущих версиях при использовании конечной точки источника на базе MySQL в задаче, для которой настроен ограниченный размер LOB, Шлюз движения данных использовал поиск источника для чтения столбцов LOB. Теперь Шлюз движения данных будет считывать столбцы LOB непосредственно из файла binlog, тем самым повышая производительность.

Примечание к информацииЭто улучшение не относится к типу данных JSON.

Изменения в сопоставлении типов данных

Изменено сопоставление со столбцами LOB для целей Amazon Redshift и Snowflake.

  • BLOB теперь сопоставляется с VARBYTE(16777216).
  • NCLOB теперь сопоставляется с NVARCHAR(65535).
  • CLOB теперь сопоставляется с NVARCHAR(65535).
  • BLOB теперь сопоставляется с BINARY (8388608)
  • NCLOB теперь сопоставляется с NVARCHAR(16777216).
  • CLOB теперь сопоставляется с NVARCHAR(16777216).

Новые поддерживаемые типы данных

  • Теперь поддерживается тип данных BOOLEAN поддерживается (начиная с DB2 for LUW 11.5).

  • Теперь поддерживается тип данных BIGNUMERIC.

Расширенная поддержка целей для управляющей таблицы DDL History

В предыдущих версиях Шлюз движения данных управляющая таблица DDL History поддерживалась только для целей Databricks и Microsoft Fabric. В этой версии добавлена поддержка следующих дополнительных коннекторов для целей:

  • Amazon Redshift
  • Amazon S3
  • Google Cloud Storage
  • Snowflake

См. также: История DDL

Поддержка пользователей без роли суперпользователя в Google Cloud SQL for PostgreSQL

Начиная с этой версии можно указывать учетную запись без роли суперпользователя, при репликации из Google Cloud SQL for PostgreSQL.

См. также: Использование учетной записи без роли суперпользователя

Новые сертифицированные платформы и версии драйверов

  • 15.4 LTS

  • 23ai

    Примечание к информации
    • Источник и цель Oracle 23ai поддерживаются только в Oracle Standard Edition.
    • Для источника Oracle 23ai поддерживается только шифрование TDE.
  • При переносе данных в Databricks теперь требуется драйвер Simba Spark ODBC Driver 2.8.2 или более поздней версии. Клиентам следует либо запустить утилиту установки драйвера, либо установить драйвер вручную.

    Смотрите также: Настройка драйвера

Дата окончания поддержки

Прекращена поддержка следующих версий баз данных:

  • PostgreSQL 12.x
  • IBM DB2 for z/OS: z/OS 2.4
  • Databricks 9.1

Устранение проблем

  • Когда настраивали режим репликации Сохранить изменения, а таблица содержала столбец .INCLUDE, задача не могла создать таблицу __CT в цели.

  • Задача завершалась ошибкой «Нет лицензии для базы данных», когда истекал срок действия секретного ключа Azure Data Lake Storage.

  • Старые файлы не удалялись при запуске новой задачи. Это может привести к тому, что задание не будет выполнено из-за дубликатов записей или из-за несовпадающих записей.

     

  • Ошибка «функция не поддерживается: невозможно выбрать тип, определенный пользователем» появлялась при выборе определенной пользователем таблицы для репликации. Проблема устранена путем исключения из определенных пользователем таблиц (которые не поддерживаются) из селектора таблиц.

  • Сообщение «Ошибка преобразования» иногда появлялось после восстановления, когда возникала ошибка подключения во время CDC.

  • При отключенной поддержке LOB захват данных изменений (CDC) завершался ошибкой «недостаточно столбцов данных», когда предпринималась попытка вставить изменение в таблицу __ct. Эта ошибка появляется при работе в режиме «Сохранить изменения», который является единственным доступным режимом для задач промежуточного хранения.

  • Во время CDC при репликации столбца NOT NULL с типом данных mediumtext задача иногда завершалась следующей ошибкой:

    A NOT NULL constraint violation occurred on LOB column from MySQL source

  • При вставке столбца VARCHAR появлялась следующая ошибка усечения:

    String or binary data would be truncated while reading column of type 'VARCHAR'

    Проблема решена путем умножения столбца VARCHAR в Microsoft Fabric.

11 сентября 2025 г.
2024.5.54 Стандартный 21 января 2025 г.

Поддержка указания дополнительных свойств подключения ODBC и JDBC была добавлена в коннектор цели Snowflake.

Для получения дополнительной информации см. Дополнительные свойства подключения.

  • Когда первичный ключ изменялся в источнике, целевые метаданные не обновлялись после перезагрузки.

  • При создании и запуске новой задачи файлы, оставшиеся от предыдущих задач, не удалялись из расположения таблиц.

  • Попытка подключения к источнику SAP HANA с использованием CDC на основе журналов приводила к следующей ошибке:

    Cannot select user-defined type

25 августа 2025 г.

2024.5.41

Патч

19 декабря 2024 г.

Этот патч устраняет следующие проблемы:

  • Пустые строки теперь будут заключаться в кавычки в CSV-файле, чтобы отличить их от значений NULL.

  • Несоответствие между исходными и целевыми данными возникало в определенных сценариях.

  • Отключение поддержки LOB в задаче промежуточного хранения приводило к сбою CDC с ошибкой (выдержка):

    Cannot write to '<name>__ct', not enough data columns

  • Применение изменений к цели после восстановления после ошибки подключения иногда завершалось с ошибкой «Conversion failed».

21 июля 2025 г.

2024.5.35

Патч

10 декабря 2024 г.

Этот патч устраняет следующие проблемы:

  • Во время задачи хранения тип данных NVARCHAR(3500) некорректно преобразовывался в VARCHAR(10500) вместо VARCHAR(8000) (максимально допустимый), что приводило к ошибке.

  • Когда исходная таблица содержала тип данных GRAPHIC с кодовой страницей 941 (японская), возникала ошибка (выдержка):

    Unexpected CCSID '941' in column 'PNTNM'

19 июня 2025 г.

2024.5.32

Патч

26 ноября 2024 г.

После обновления имени пользователя и пароля в коннекторе источника Workday Reports, а затем перезагрузки задачи, возникала ошибка «Invalid username or password», даже если учетные данные были верными. Эта проблема теперь решена.

10 июня 2025 г.

2024.5.31

Патч

19 ноября 2024 г.

Этот патч устраняет следующие проблемы:

Oracle Java Standard Edition 17.0.8, поставляемая с Шлюз движения данных, имеет несколько известных уязвимостей. Этот патч заменяет 17.0.8 на 17.0.12, тем самым решая проблемы.

Во время CDC для каждого изменения в связанную таблицу _ct добавлялось несколько операций INSERT (вместо одной). Это значительно увеличивало количество записей в таблице _ct.

26 мая 2025 г.

2024.5.28

Стандартный

12 ноября 2024 г. Предоставляет функциональность, необходимую для скоро выходящей функции Schema Evolution.

19 мая 2025 г.

2024.5.27

Патч

5 ноября 2024 г.

Этот патч устраняет следующие проблемы:

14 августа 2024 года Snowflake выпустила рекомендацию по безопасности относительно JDBC-драйверов Snowflake >= 3.2.6 & <= 3.19.1, некоторые из которых использовались с предыдущими версиями Шлюз движения данных. Уязвимость была исправлена в JDBC-драйвере Snowflake 3.20, который теперь устанавливается с помощью утилиты установки драйверов. Существующие клиенты должны обновить свой драйвер при первой возможности, следуя процедуре Updating the driver, описанной в разделе Настройка драйвера.

  • При использовании события redo 11.22 происходили пропуски INSERT при обработке нескольких INSERT на сжатой странице, которая не была сжата до INSERT.
  • В редких сценариях некорректный разбор событий DELETE в записи журнала redo генерировал предупреждение «The Redo Log DELETE event contains an unknown structure», за которым следовали различные проблемы.

Инструкции в YAML-файле были обновлены, чтобы отразить правильную версию SAP Java Connector.

При использовании Шлюз движения данных для подключения к цели Snowflake через прокси-сервер подключение завершалось с ошибкой:

500 Failed to connect to Data Movement Gateway

12 мая 2025 г.

2024.5.22

Патч

15 октября 2024 г. Этот патч устраняет проблему в задаче репликации Full Load + CDC, где поле Data task is updated to для задачи CDC показывало метку времени полной загрузки вместо метки времени CDC.

5 мая 2025 г.

2024.5.16

Патч

8 октября 2024 г.
    • При использовании события redo 11.22 иногда в нескольких операциях INSERT отсутствуют операторы INSERT.
    • После обновления Oracle 19g до исправления за июль 2024 года операции UPDATE иногда не захватывались, и на экране появлялось следующее предупреждение:

      A compressed row cannot be parsed

  • Когда параметры задачи были настроены для создания схемы управляющей таблицы, задача завершалась со следующей ошибкой:

    Failed to delete directory

  • Когда было запланировано периодическое выполнение задачи, она иногда завершалось со следующей ошибкой:

    The task stopped abnormally

  • Задачи преобразования и хранения иногда оставались в очереди слишком долгое время.

  • Задача завершается ошибкой при использовании флага функции use_manipulation_pk_for_apply для репликации с сохранением изменений.

  • Продлите тайм-аут S3 до 6 часов, чтобы предотвратить проблемы, возникающие из-за длительных тайм-аутов, такие как потеря токена для загрузки файлов.

15 апреля 2025 г.

2024.5.14

Стандартный

11 сентября 2024 г.
  • Пара ключей обеспечивает более надежную проверку подлинности, чем имя пользователя и пароль, для подключения к Snowflake с помощью учетных записей служб. Этот подход рекомендуется для таких рабочих нагрузок, как загрузка данных (репликация или задачи на выгрузку) и преобразования.

  • В предыдущих версиях обновление метаданных существующего набора данных или вновь добавленного набора данных иногда приводило к ошибке. Это улучшение гарантирует успешное получение метаданных из нескольких таблиц параллельно.

  • Если исходная таблица содержала столбец с типом данных DECIMAL, например DECIMAL (38, 20), подготовка задачи хранения в Google BigQuery завершалась следующей ошибкой (фрагмент):

    Column <n> in <table name> has incompatible types: STRING, BIGNUMERIC at [93:1]

    Проблема решена путем сопоставления исходного типа данных DECIMAL с типом данных DECIMAL в Google BigQuery.

  • После внесения изменений в существующее правило схемы в задаче данных возникнет следующая ошибка:

    QRI SQL error not implemented

  • При подготовке задачи промежуточного хранения, подключенной к источнику SAP Application, задача завершается успешно, но в файле журнала repsrv.log появляется следующее сообщение об ошибке:

    Invalid object name 'hk1./QTQVC/QRI'

8 апреля 2025 г.

2024.5.7

Стандартный

6 августа 2024 г.
  • Раньше в случае изменения метаданных все таблицы отбрасывались и создавались заново, даже если такое изменение затрагивало не все таблицы. Теперь отбрасываются и повторно создаются только измененные таблицы, благодаря чему улучшается производительность.

  • Таблицы, созданные в исходной базе данных во время выполнения задачи данных репликации, соответствующей шаблону включения, теперь будут автоматически захватываться посредством CDC (захват изменений данных).

    • Раньше при чтении нескольких транзакций из Microsoft SQL Server (MS-CDC), в Qlik Talend Data Integration идентификатор и метка времени сохранялись только для первой транзакции. В цели это выглядело так, будто записи являются частью одной транзакции. Теперь Qlik Talend Data Integration сохраняет исходные идентификатор транзакции и метку времени для каждой отдельной записи. Это полезно для пользователей, которым требуется использовать заголовки столбцов «Идентификатор транзакции» и «Метка времени» в таблицах изменений.

    • Раньше биты в идентификаторе транзакций кодировались в обратном порядке. Начиная с этой версии биты будут кодироваться в правильном порядке. Потребители информации, которым требуется сохранить существующее поведение, могут соответствующим образом настроить внутренние параметры. Для получения дополнительной информации обратитесь в службу поддержки Qlik.

  • Qlik Talend Data Integration теперь поддерживает кэширование модульной проверки подлинности SHA-2 (caching_sha2_password) при работе с источниками или целями MySQL, локальными или облачными. В предыдущих версиях поддерживалась только встроенная модульная проверка подлинности (mysql_native_password).

  • Теперь в Amazon Redshift типы данных BYTES и BLOB можно сопоставить с VARBYTE вместо VARCHAR.

    • PostgreSQL 16.x

    • MySQL 8.1
    • IBM DB2 for z/OS 3.1
    • PostgreSQL 16.x
    • MySQL 8.1
    • Databricks 14.3 LTS
    • Драйвер SQL Server ODBC 18.3

Прекращена поддержка следующих версий баз данных:

  • Все версии и драйверы Oracle до Oracle 19.x
  • Microsoft SQL Server 2014
  • MySQL 5.7
  • PostgreSQL 11
  • IBM DB2 for LUW 10.5
  • IBM DB2 for z/OS: z/OS 2.3
  • Когда захваченное изменение документа кластера удалило все строки из всех захваченных таблиц, будет обнаружена отсутствующая операция DELETE и ненужные сообщения утверждений.

  • Обновление библиотеки проверки подлинности Microsoft Authentication Library for Java (MSAL4J) и Bouncy Castle до версий без известных уязвимостей.

    • Выполнение задач иногда завершается ошибкой при использовании внутреннего хранилища Snowflake.
    • Задача завершается ошибкой, когда в имени целевой схемы использовались японские символы Катакана.
  • При возобновлении задачи с источником Oracle она продолжает ожидать удаленный архивный журнал повтора вместо завершения с выводом соответствующего сообщения об ошибке.

11 марта 2025 г.

2023.11.23

Стандартный

26 июня 2024 г.
  • Начиная с этой версии будет создаваться схема метаданных Snowflake (для промежуточных файлов), если она не существует.

  • После изменения правила Переименовать набор данных (которое объединяло имя таблицы с именем схемы) и добавления вида в задачу промежуточного хранения операция подготовки будет завершаться ошибкой:

    QRI SQL error not implemented.

  • Компонент java_file_factory обновлен до версии без известных уязвимостей.
  • Объект org.postgresql:postgresql обновлен до версии без известных уязвимостей.
  • При перемещении данных в SQL Server операция подготовки завершается ошибкой, когда имена индексов содержат более 128 символов. Проблема решена путем изменения логики с целью создания более коротких имен индексов.
  • При перемещении данных из SQL Server отсутствие имени столбца в определениях таблиц приведет к бесконечному циклу уведомлений в файле repsrv.log, при этом будет отображаться следующее сообщение:

    mssql_resolve_sqlserver_table_column_attributes(...) failed to find column

6 февраля 2025 г.

2023.11.11

Стандартный

21 мая 2024 г.
  • Добавлена поддержка одновременного извлечения метаданных для нескольких таблиц.

  • Информация о мониторинге для задач промежуточного хранения и репликации теперь будет обновляться каждые 10 секунд (ранее интервал составлял 60 секунд), что обеспечивает более точное отображение их текущего состояния.

  • Япония теперь поддерживается в качестве региона клиента Qlik Cloud.

  • Интервал повторной попытки подключения между шлюзом данных и Qlik Cloud постоянно увеличивается, но никогда не сбрасывается (пока не перезапустится служба).
  • При перемещении данных из источника приложения SaaS таблицы иногда переходят в состояние ошибки во время перезагрузки.
  • Задачи с использованием источника MySQL иногда завершаются со следующей ошибкой во время CDC:

    Read next binary log event failed; mariadb_rpl_fetch error 0 Error reading binary log.

  • Ранее события аудита CDC регистрировались только для задач промежуточного хранения. Теперь они будут регистрироваться и для задач репликации.
  • При перемещении данных из SQL Server (MS-CDC) на запуск задач, содержащих много таблиц, иногда требуется несколько часов.
  • Когда исходная таблица содержит столбцы CLOB и значение «Ограничить размер столбца LOB» превышает 10240, репликация в Snowflake завершается следующей ошибкой:

    Invalid character length: 0

26 декабря 2024 г.
2023.11.4

Стандартный

12 марта 2024 г.

Заказчики теперь могут устанавливать Шлюз движения данных на платформе Red Hat 9.x или любой соответствующей и совместимой сборки Linux.

Настройка Шлюз движения данных

Внесены изменения в команды для остановки, запуска и проверки состояния службы Шлюз движения данных.

Команды службы Шлюз движения данных

  • Тип данных BOOLEAN, который ранее сопоставлялся с VARCHAR(1) в Amazon Redshift, теперь будет сопоставляться с BOOLEAN.
  • Типы данных BYTES и BLOB, которые ранее сопоставлялись с VARCHAR(1) в Amazon Redshift, теперь будут сопоставляться с VARBINARY (длина).

В этом разделе перечислены новые поддерживаемые базы данных, версии баз данных и версии драйверов.

  • Новые поддерживаемые версии и редакции источников данных

    Теперь поддерживаются следующие версии источников данных:

    • Azure Database for MySQL ― Flexible Server (поддерживается через коннектор источника MySQL)
    • MariaDB 10.4 ― 10.11 (ранее 10.4 и 10.5)
  • Новые поддерживаемые целевые платформы данных и их редакции

    Теперь поддерживаются следующие версии целей данных:

    • Azure Database for MySQL ― Flexible Server (поддерживается через коннектор цели MySQL)
    • Databricks: Databricks 13.3 LTS и Serverless SQL Warehouse
  • Новая поддерживаемая версия драйвера SAP HANA

    Заказчики, использующие источник SAP HANA, которым требуется установить Шлюз движения данных на платформе Red Hat Linux 9.x, необходимо установить 64-разрядную версию драйвера SAP HANA ODBC 2.0.19 или более позднюю.

В этом разделе предоставляется информация о версиях баз данных, поддержка которых прекращена.

  • Прекращена поддержка следующих версий источников данных:

    • Oracle 11.x
    • SAP HANA 1.0
  • Когда при установке Шлюз движения данных не предоставляется пароль сервера, невозможно настроить URL клиента и прокси-сервера с использованием одной команды.
  • При перемещении данных из Salesforce (приложение SaaS) выводится большое количество избыточных предупреждений, что снижает производительность загрузки данных.
  • Если возникает ошибка при извлечении изменений для одной из таблиц источника данных приложения SaaS, эта таблица будет приостановлена и удалена из конвейера данных. Теперь при обнаружении ошибки задача будет предпринимать три попытки получить изменения, прежде чем приостанавливать таблицу.
21 ноября 2024 г.
2023.5.16

Стандартный

9 января 2024 г.

Мы продолжаем расширять список поддерживаемых целей для проекта «Репликация» в Qlik Cloud Data Integration. Теперь, помимо Amazon S3, можно выбрать Azure Data Lake Storage (ADLS) и Google Cloud Storage (GCS) для доставки данных в формате Parquet, JSON или CSV в озера данных.

  • Подключение к IBM DB2 для LUW завершалось с ошибкой, когда размер файлов, необходимых для подключения (таких как SSL-клиентский сертификат и файл хранилища ключей), превышал 4 КБ.

  • Установка драйвера DB2 завершалась с ошибкой при использовании утилиты установки драйверов.

12 сентября 2024 г.

2023.5.15

Стандартный

12 декабря 2023 г.

Microsoft Fabric присоединяется к постоянно расширяющемуся списку хранилищ данных, которые можно использовать в качестве целей в проектах конвейера данных.

Обновлена версия драйвера Snowflake в утилите установки драйверов.

9 июля 2024 г.

2023.5.10

Стандартный

31 октября 2023 г.

Частное подключение можно использовать для обеспечения безопасности трафика данных и соблюдения требований к трафику. Это упрощает управление сетью и повышает безопасность ВЧО (виртуальное частное облако), не требуя открывать порты встроенных брандмауэров, прокси-устройства и таблицы маршрутизации. Qlik Cloud Data Integration уже поддерживает частные подключения к целям конвейера данных Snowflake, Microsoft SQL Server и Amazon S3. Этот выпуск позволяет дополнительно использовать частные подключения при перемещении данных в Databricks, Microsoft Azure Synapse, Google BigQuery и Amazon Redshift.

  • Все источники данных на базе PostgreSQL — поддержка многодиапазонного типа данных: теперь следующие многодиапазонные типы данных поддерживаются во всех источниках данных на базе PostgreSQL (локальных и облачных).

    • INT4MULTIRANGE
    • INT8MULTIRANGE
    • NUMMULTIRANGE;
    • TSMULTIRANGE.
  • Источник данных AWS Aurora Cloud для PostgreSQL — поддержка ролей, отличных от суперпользователя: пользователю, указанному в коннекторе PostgreSQL, больше не требуется роль суперпользователя для перемещения данных из источника данных AWS Aurora Cloud для PostgreSQL. Это особенно полезно для организаций, где политики корпоративной безопасности не позволяют предоставлять роль суперпользователя непривилегированным пользователям.

Теперь заказчики, которые переносят данные из источника данных Microsoft Azure SQL (MS-CDC), могут использовать базу данных Geo Replica.

Qlik Cloud Data Integration теперь поддерживает чтение данных из зашифрованных табличных пространств Oracle и зашифрованных столбцов в процессе CDC.

Qlik Cloud Data Integration теперь поддерживает клиенты в регионах DE и UK.

В этом разделе перечислены базы данных и версии драйверов, для которых добавлена поддержка.

  • Новые поддерживаемые версии источников данных. Теперь поддерживаются следующие версии источников данных:

    • Microsoft SQL Server 2022
    • Oracle 21c
    • PostgreSQL 15.x
    • DB2 13.1 (при работе с IBM DB2 for z/OS)
    • IBM DB2 for iSeries 7.5
  • Новые поддерживаемые версии целевых платформ данных. Теперь поддерживаются следующие версии целей данных:

    • Databricks (Cloud Storage): Databricks 12.2 LTS и Databricks SQL Serverless
  • Версии драйвера. Теперь поддерживаются следующие версии драйверов ODBC:

    • IBM Data Server Client 11.5.8 для IBM DB2 for z/OZ и IBM DB2 for LUW
    • Драйвер Simba ODBC 3.0.0.1001 для Google Cloud BigQuery
    • Драйвер MySQL ODBC Unicode 8.0.32 (64-разрядный)

Клиенты, перемещающие данные в Microsoft SQL Server, должны обновить свой драйвер SQL Server ODBC до версии 18.x или более поздней. Обратите внимание, что в случае дальнейшего использования драйвера SQL Server ODBC версии 17.x могут возникать ошибки данных. Обновление драйвера можно выполнить с помощью служебной программы для установки драйверов или вручную. Инструкции см. в разделе Настройка драйвера.

В этом разделе предоставляется информация о версиях баз данных, поддержка которых прекращена.

  • Версии баз данных, для которых прекращена поддержка. Прекращена поддержка следующих версий источников данных:

    • PostgreSQL 10
    • MySQL 5.6
    • MariaDB 10.3
  • Версии целевых платформ данных, для которых прекращена поддержка. Прекращена поддержка следующих версий целей данных:

    • Databricks 9.1 LTS

12 июня 2024 г.

2022.11.74

Стандартный

15 августа 2023 г.

Мы применяем подход «сначала облако», который обеспечивает быструю реализацию инноваций и принятие. Однако это не означает, что наша работа ориентирована только на облако. В рамках нашей постоянной работы по повышению перспективной ценности для наших заказчиков мы рады объявить о добавлении нового сценария применения при создании проектов данных — «Репликация». Новый сценарий применения «Репликация» дополняет существующую возможность создания конвейеров данных для удовлетворения всех потребностей, связанных с интеграцией данных, включая модернизацию хранилища данных.

Проект «Репликация» поддерживает репликацию данных в реальном времени из поддерживаемых источников данных в поддерживаемую цель.

Начиная с данного, самого последнего выпуска, первая цель, которая поддерживает репликацию данных в реальном времени, — это Microsoft SQL Server. В дополнение к поддержке локального сервера Microsoft SQL Server, также поддерживаются следующие облачные поставщики:

  • Локально
  • Amazon RDS
  • Google Cloud
  • Microsoft Azure (Microsoft Azure Managed Instance и Microsoft Azure Database)

Клиенты, перемещающие данные в Microsoft Azure Synapse Analytics, должны обновить свой драйвер SQL Server ODBC до версии 18.x или более поздней. Обратите внимание, что в случае дальнейшего использования драйвера SQL Server ODBC версии 17.x могут возникать ошибки данных. Обновление драйвера можно выполнить с помощью служебной программы для установки драйверов или вручную. Инструкции см. в разделе Настройка драйвера.

Добавлен новый параметр Загрузить данные из источника, который дает пользователям возможность считывать данные непосредственно из источника во время полной загрузки вместо использования кэшированных данных.

Дополнительные данные об этом параметре, а также примеры использования см. в разделе Параметры промежуточного хранения.

Шлюз движения данных 2022.11.74 включает обновленные сертификаты ЦС, необходимые для проверки подлинности клиента Qlik Cloud. Обновленные сертификаты ЦС также обеспечивают поддержку регионов Ирландии и Франкфурта. Таким образом, пользователи с клиентами Qlik Cloud в Ирландии или Франкфурте, которые хотят использовать интеграцию данных Qlik Cloud, должны выполнить обновление до этой версии.

Задачи промежуточного хранения данных из источника Oracle иногда завершаются ошибкой, когда таблица содержит неиспользуемые или неподдерживаемые столбцы или столбцы LOB, которые не были реплицированы.

31 апреля 2024 г.

2022.11.70

Стандартный

28 июня 2023 г.

В предыдущих версиях клиентам нужно было запускать команду «source arep_login.sh» при установке клиентов SAP. Начиная с этой версии, запускать эту команду больше не требуется.

Эта версия включает обновленные CA-сертификаты, которые необходимы для аутентификации клиента Qlik Cloud.

  • Когда задача репликации в Шлюз движения данных завершается ошибкой и автоматически восстанавливается, восстановленное состояние не передается в ресурс данных промежуточного хранения в Qlik Cloud.

  • Сквозное шифрование для Шлюз движения данных не включалось по умолчанию и контролировалось с помощью флагов времени выполнения.
15 февраля 2024 г.

2022.11.63

Стандартный

2 мая 2023 г.

Данная версия включает программу для установки драйверов, благодаря которой отпадает необходимость в ручной установке и настройке драйверов. Новая программа ускоряет процесс установки и значительно снижает вероятность ошибки пользователя. При запуске программы необходимый драйвер загружается автоматически, если это возможно, и устанавливается. Если драйвер нельзя загрузить автоматически (например, для загрузки драйверов DB2 необходимо войти в систему), то все, что нужно сделать, это загрузить драйвер, скопировать его в соответствующую папку на компьютере со шлюзом движения данных и запустить программу.

Пример использования программы для установки драйвера PostgreSQL см. в разделе Предварительные требования.

Коннектор Snowflake теперь поддерживает 4-байтовые символы эмодзи.

С помощью коннектора PostgreSQL теперь можно перемещать данные из базы данных Azure для PostgreSQL — гибкий сервер.

С помощью коннектора PostgreSQL теперь можно перемещать данные из Cloud SQL for PostgreSQL.

Данная версия поддерживает следующие новые версии источников данных:

  • PostgreSQL 14
  • DB2 (для IBM DB2 для z/OS) 12.1
  • IBM DB2 для z/OS 2.5

Databricks 11.3 LTS

Следующие версии источников данных больше не поддерживаются:

  • DB2 (для IBM DB2 для z/OS) 11
  • PostgreSQL 9.6
  • Microsoft SQL Server 2012
  • MariaDB 10.2

В данной версии устранены проблемы, приведенные ниже.

  • Источник данных Oracle: при остановке и возобновлении выполнения задачи иногда возникала ошибка «Не удалось установить положение потока в контексте».
  • Источник SAP Application: изменения не будут регистрироваться во время выполнения задачи промежуточного хранения.

28 декабря 2023 г.

2022.5.13

Стандартный

19 октября 2022 г.

Первоначальный выпуск

2 ноября 2023 г.

Удаление Шлюз движения данных

Чтобы удалить Шлюз движения данных, выполните следующую команду:

rpm -e <installation package name>

Пример:

rpm -e qlik-data-gateway-data-movement-2023.11-1.x86_64

Если вы не знаете имя пакета, выполните:

rpm -qa | grep qlik

Примечание к предупреждениюУдаление Шлюз движения данных приведет к сбою всех задач, использующих шлюз данных в данный момент.

Помогла ли вам эта страница?

Если вы обнаружили какую-либо проблему на этой странице или с ее содержанием — будь то опечатка, пропущенный шаг или техническая ошибка, сообщите нам об этом!