Перейти к основному содержимому Перейти к дополнительному содержимому

Обновление и удаление Шлюз движения данных

В этом разделе описывается порядок обновления или удаления установленного экземпляра Шлюз движения данных. Здесь также приводится таблица, в которой перечислены изменения, реализованные в каждой версии Шлюз движения данных.

Процедура обновления

Чтобы проверить текущую версию, выберите Администрирование > Шлюзы данных и проверьте столбец Версия, соответствующий вашей версии Шлюз движения данных.

Если доступна новая версия, рядом с номером версии будет отображаться !. Можно навести указатель мыши на Сведения, чтобы получить дополнительную информацию.

Примечание к информацииВерсии иногда выпускаются в виде исправлений. Символ «!» отображается только в том случае, если доступен новый стандартный выпуск (в отличие от выпуска исправления). Чтобы узнать, является ли версия исправлением или стандартным выпуском, проверьте информацию в столбце Тип таблицы История версий Шлюз движения данных, приведенной ниже.

Если установленная версия шлюза не поддерживается, в поле Состояние отображается Деактивировано, для активации шлюза необходимо выполнить обновление.

При появлении новой версии Шлюз движения данных необходимо загрузить файл rpm из Администрирование и установить новую версию.

Действие:

  1. Чтобы загрузить новую версию, щелкните Дополнительно на шлюзе, а затем нажмите Обновить.

    Примите клиентское соглашение и переходите к загрузке RPM.

  2. Откройте приглашение оболочки и смените рабочий каталог на каталог, содержащий RPM.
  3. Выполните следующую команду:

    Синтаксис:

    rpm -U <rpm name>

    Пример:

    sudo rpm -U qlik-data-gateway-data-movement.rpm

  4. Запустите сервис Data Movement Gateway.

    sudo systemctl start repagent

  5. При необходимости подтвердите, что служба запущена.

    sudo systemctl status repagent

    Статус должен быть следующим:

    Active: active (running) since <timestamp> ago

История версий Шлюз движения данных

Версия

Тип

Дата выпуска

Существенные изменения

Дата окончания поддержки

2025.5.22 Стандартный 25 ноября 2025 года

Начиная с этой версии, задача данных будет создавать первичный ключ в целевых таблицах Databricks Delta, используя ключевое слово RELY. Хотя Databricks не применяет ограничения на создание первичного ключа, предполагается, что первичные ключи с ключевым словом RELY не имеют дубликатов, поэтому они могут использоваться Databricks для оптимизации запросов.

Условия:

  • Необходимо выбрать каталог в настройках коннектора.

  • Databricks 14.2 или более поздней версии

  • IBM DB2 для источников iSeries: Добавлена поддержка следующих типов данных: BINARY-DECIMAL и ZONED-DECIMAL

  • Цель Databricks: В предыдущих версиях типу BYTES соответствовал тип STRING. Начиная с этой версии, этому типу будет соответствовать тип VARCHAR (длина в байтах)

  • Цель Google Cloud BigQuery: подтип JSON теперь поддерживается целью в Google Cloud BigQuery

Репликация (полная загрузка и CDC) разделов и подразделов (и подразделов еще более низкого уровня) из источников данных на базе PostgreSQL теперь поддерживается по умолчанию.

Цель Google Cloud BigQuery теперь поддерживает обработку данных, связанных с усечением данных. Если возникает ошибка усечения данных, теперь можно выбрать: регистрировать запись в таблицу управления исключениями (по умолчанию), игнорировать запись, приостанавливать таблицу или останавливать задачу.

Теперь поддерживаются следующие версии целевых и исходных конечных точек:

  • MariaDB (локально) и Amazon RDS для MariaDB: 11.4

  • MySQL (локально), MySQL Percona, Google Cloud SQL for MySQL, Amazon RDS for MySQL и Microsoft Azure Database for MySQL — Flexible Server: 8.4

  • PostgreSQL (локально), Google Cloud SQL for PostgreSQL, Amazon RDS for PostgreSQL и Microsoft Azure Database for PostgreSQL — Flexible Server: 17.x

Теперь поддерживается IBM Data Server Client 11.5.9 для следующих источников DB2:

  • IBM DB2 для LUW

  • IBM DB2 для z/OS

  • Устаревшие источники и цели: прекращена поддержка Microsoft Azure Database for MySQL и Microsoft Azure Database for PostgreSQL, поддержка которых официально прекращена Microsoft.

  • Устаревшие версии источников: IBM DB2 for iSeries 7.2 больше не поддерживается в связи с прекращением поддержки производителем.

  • Устаревшие версии драйверов: прекращена поддержка IBM Data Server Client 11.5.6.

Устраненные проблемы

  • HSTS не был включен на Шлюз данных Qlik — движение данных машине.

  • Установка Шлюз движения данных на Redhat версии 9.7 завершилась бы с ошибкой «OPENSSL_3.4.0 не найдено».

  • Во время CDC задача продолжала считывать те же записи WAL и обрабатывать ту же позицию потока.

  • После того как задача CDC останавливалась во время изменений (например, из-за проблем с подключением), возобновление задачи иногда приводило к ошибкам длины строки.

  • Журналы подключения источника будут недоступны после выполнения задачи, использующей коннектор Preview или Lite.

  • На вкладке Монитор не отображалось сообщение об ошибке, когда таблица была приостановлена на этапе CDC задачи полной загрузки и CDC.

Определяется при выпуске следующей основной версии
2024.11.95 Стандартный 4 ноября 2025 года

Поддержка создания витрин знаний на Databricks

Ранее витрины знаний поддерживались только на Snowflake. Теперь создавать и запускать витрины знаний, в том числе и файловые, можно на Databricks.

Устраненные ошибки:

Во время подготовки задачи периодически завершались со следующей ошибкой:

The request was canceled due to the configured HttpClient.Timeout of 300 seconds elapsing.

11 мая 2026 года
2024.11.90 Стандартный 21 октября 2025 г.

Устраненные ошибки:

Когда внутреннее свойство metadataschema было определено со специальными символами, задача завершалась с ошибкой во время CDC.

11 мая 2026 года
2024.11.84 Исправление 16 сентября 2025 г.

Устраненные ошибки:

  • При использовании Шлюз движения данных клиенты в регионе EU-Central-1 будут получать частые оповещения, связанные со стадией производства.

  • При репликации данных из Jira таблица USERS при первом запуске зависала со статусом Queued, тогда как остальные таблицы успешно загружались.

  • Мониторинг CDC отсутствовал в мониторе задач.

  • Задачи репликации Oracle-to-Oracle иногда заканчивались ошибкой из-за неправильного расчета длины строки.

  • Серверный компонент Java (sqlite-jdbc) был обновлен до версии 3.47.0 в связи с известной уязвимостью в предыдущих версиях.

  • Если задача, которая ранее не запускалась, запускалась в режиме продолжения, иногда возникала ошибка «Нет лицензии для базы данных».

  • Добавление новых наборов данных в задачу промежуточного хранения с источником Salesforce приводило к ошибке «Таблица не существует».

11 мая 2026 года
2024.11.78 Стандартный 3 сентября 2025 г.
Примечание к предупреждению

Клиенты, использующие Snowflake в качестве цели, после обновления Шлюз движения данных должны обновить драйвер Snowflake. В противном случае задача завершится с ошибкой.

Для получения инструкций см. раздел Настройка драйвера.

  • Задачи хранения в некоторых случаях завершались с ошибкой подключения, требующей перезапуска шлюза.

  • Не удавалось установить драйвер DB2, если доступ к папке /tmp ограничен.

  • После обновления до Шлюз движения данных версии 2024.11.65 подключение к Qlik Cloud занимало слишком много времени. Проблема была решена после добавления токена отмены с временем ожидания в две минуты.

  • После обновления Шлюз движения данных до версии 2024.11.67 служба external-data-provider, которая используется коннекторами Lite, аварийно заканчивала работу из-за ограничений доступа к папке /tmp.

  • Следующие компоненты были обновлены до более поздних версий из-за известных уязвимостей:

    • SQLite 3.49.1

    • Java Runtime Engine 17.0.15

    • org.bouncycastle:bcpkix-fips 2.0.7 (bcpkix-fips-2.0.7.jar)

    • org.bouncycastle:bc-fips 2.0.0 (bc-fips-2.0.0.jar)

  • При подключении к SMB возникала следующая ошибка:

    SmbConnection' object has no attribute 'docs_path'

  • Повторная подготовка задачи иногда завершалась со следующей ошибкой (фрагмент ошибки приведен ниже), если после первой подготовки возникало изменение DDL:

    Could not find match between landing metadata with gateway task metadata for the following tables: <name>

  • Предварительный просмотр данных не работал, если в качестве целевого сервера использовался Microsoft SQL Server.

  • В этой версии добавлена поддержка для использования Шлюз движения данных с Qlik Cloud Government DoD.

11 мая 2026 года
2024.11.70 Standard 12 августа 2025 г.
  • В настройках обработки ошибок в таблицах для задач репликации и промежуточного хранения добавлена новая настройка Число повторных попыток до генерации ошибки таблицы. Ранее, при возникновении ошибки в таблице таблица приостанавливалась или задание останавливалось (в зависимости от выбранного действия по обработке ошибок). Это иногда приводило к тому, что таблицы приостанавливались во время окна обслуживания приложений SaaS. Эта настройка определяет, сколько раз нужно повторно обработать таблицу, прежде чем будет применена политика обработки ошибок таблицы. Эта опция особенно полезна, если ваше приложение SaaS проходит периодическое обслуживание, так как вы можете переопределить количество повторных попыток по умолчанию (3), чтобы обслуживание могло быть завершено без запуска политики обработки ошибок таблицы.

    Обработка ошибок таблицы

    Примечание к информацииЭта опция будет отображаться только для задач, настроенных с коннектором приложения SaaS Lite или Standard.
  • При предварительном просмотре преобразования SQL результаты теперь будут включать типы данных столбцов.

    Предварительный просмотр данных

11 мая 2026 года
2024.11.67 Стандартный 29 июля 2025 г.
  • В машинах, выполняющих функцию шлюза, была внедрена политика ротации и очистки журналов репликации. Политика ротации — это механизм, который не дает файлам журналов разрастаться до слишком больших размеров, что позволяет избежать перегрузки системы и упрощает анализ. Политика очистки не разрешает накапливать файлы на диске и удаляет старые журналы, чтобы они не занимали место.

  • При перезагрузке приостановленной таблицы в некоторых случаях состояние таблицы отображалось неверно.

  • При подготовке задачи промежуточного хранения иногда после добавления набора данных возникало превышение времени выполнения на этапе каталогизации ресурсов. Операция Prepare не выполнялась.

11 мая 2026 года
2024.11.65 Исправление 22 июля 2025 г.

Это исправление устраняет следующие проблемы:

  • При добавлении новой таблицы в задачу репликации и нажатии Prepare иногда возникала следующая ошибка:

    Prepare data task failed: Object reference not set to an instance of an object.

  • Следующие установочные файлы Шлюз движения данных были обновлены до версий без известных уязвимостей:

    • Java

    • jetty-io-<версия>.jar

    • jetty-http-<версия>.jar

    • spring-expression-<версия>.jar

    • spring-core-<версия>.jar

    • spring-context-<версия>.jar

11 мая 2026 года
2024.11.61 Исправление 15 июля 2025 г. На машину с Python 3.12 не удавалось установить агент ai-local-agent, необходимый для обеспечения совместимости векторной базы данных и LLM. Это исправление устраняет соответствующую ошибку. 11 мая 2026 года
2024.11.59 Исправление 1 июля 2025 г.

Это исправление устраняет следующие проблемы:

  • После обновления до Шлюз движения данных 2024.11.54 подключение к базе данных завершалось сбоем.

  • Подготовка задачи данных завершалась сбоем, если задача была настроена с источником приложения SaaS и целевым объектом Google BigQuery.

  • Задачи с источниками данных на основе Java завершались сбоем после обновления до Шлюз движения данных 2024.11.54.

  • Во время CDC, если столбец STRING в исходной таблице превышал 65536 байт, данные усекались в целевом столбце STRING. Затем задача переключалась в режим применения «по одному».

  • Файлы java_file_factory.jar и arep-google-cloud.jar были обновлены до версий без известных уязвимостей.

11 мая 2026 года
2024.11.54 Исправление 17 июня 2025 г.

Это исправление устраняет следующие проблемы:

  • Во время полной загрузки задача сбрасывала и создавала заново целевые таблицы, даже если для задачи был настроен параметр Если целевая таблица уже существует: игнорировать.

  • После остановки и подготовки существующей задачи репликации с режимом репликации, установленным на полную загрузку, и применения изменений, количество обработанных записей CDC увеличивается, что приводит к неправильному подсчету.

  • Когда в существующую задачу добавлялся новый набор данных, задача завершалась со следующей ошибкой:

    Could not find a match between landing metadata and gateway task metadata for the following tables: <name>

  • Тестовое подключение к источникам SAP и SQL-источникам было неудачным.

  • После обновления шлюза задачи иногда не возобновлялись, как ожидалось.

11 мая 2026 года
2024.11.45 Стандартный 20 мая 2025 года

Поддержка Snowpipe Streaming

Ранее массовая загрузка была единственным доступным методом загрузки данных в Snowflake. Теперь для подключения или репликации данных в Snowflake клиенты могут использовать массовую загрузку или потоковую загрузку Snowpipe Streaming.

Преимущества Snowpipe Streaming по сравнению с массовой загрузкой

  • Менее затратный метод: так как хранилище Snowflake не используется, операционные расходы должны быть значительно ниже (но не всегда, так как расходы также зависят от конкретного сценария использования).
  • Меньше задержка: данные передаются напрямую в целевые таблицы (нет промежуточного хранения), поэтому репликация из источника данных в целевую систему должна происходить быстрее.

Устраненные проблемы

Это исправление устраняет следующие проблемы:

  • При просмотре баз данных с помощью коннектора Microsoft Fabric возникает следующая ошибка (фрагмент):

    Create connection failed'' with error 'java.lang.NoSuchMethodError

    Проблема была вызвана несовместимостью с JDBC-драйвером 12.9.0-preview.jar, установленным с помощью утилиты установки драйвера. Теперь утилита обновлена так, чтобы устанавливался совместимый драйвер.

  • После обновления Шлюз движения данных или перезапуска службы Шлюз движения данных сервер Java (необходимый для работы коннекторов на базе Java, таких как SAP ODP) не запускается.

    • Сквозное шифрование может применяться нестрого к данным, которые передаются в контексте команд журналирования, возвращающих размещенные на стороне клиента журналы по запросу из центра активности «Администрирование» Qlik Cloud.

    • Версия SQLite, используемая в Шлюз движения данных, была обновлена из-за уязвимости в версии 3.42.0(CVE-2023-7104).

    • Файл com.h2database, используемый сайтом Шлюз движения данных, был обновлен из-за уязвимости в версии h2-2.1.212(CVE-2022-45868).

11 мая 2026 года
2024.11.34 Исправление 1 апреля 2025 год

Этот патч устраняет следующую проблему, возникающую при перемещении данных из базы данных IBM DB2 for iSeries:

При использовании драйвера iSeries Access ODBC Driver 07.01.026 или более поздней версии задача может завершиться с ошибкой "Error parsing" во время выполнения CDC.

11 мая 2026 года
2024.11.30

Стандартный

18 марта 2025 г.

Теперь можно установить подключение к цели Databricks, используя проверку подлинности OAuth ― метод, который Databricks рекомендует для проверки подлинности учетных записей. Проверка подлинности с помощью персонального токена доступа пока останется доступной для обеспечения обратной совместимости, но она считается менее безопасной, чем OAuth.

  • Если набор данных был определен с параллельной загрузкой, а затем полную загрузку отключали, задача все равно выполняла полную загрузку этого набора данных даже в случае возобновления с метки времени.

11 мая 2026 года

2024.11.24

Исправление

11 марта 2025 г.

Это исправление устраняет следующие проблемы:

  • Генерация метаданных завершалась ошибкой для таблиц с точкой в имени (например, Deprec.Area).

  • Задачи восстанавливались только один раз, если они завершались ошибкой во время полной загрузки из-за ошибок среды. Теперь они будут восстанавливаться столько раз, сколько настроено в разделе Параметры> Обработка ошибок > Ошибки среды > Максимальное количество повторных попыток.

11 мая 2026 года
2024.11.14 Стандартный 25 февраля 2025 г.

Улучшения

Сертификация отказоустойчивости PostgreSQL

Работа с вторичной базой данных в случае переключения после отказа сертифицирована для следующих источников данных (доступ к которым можно получить с помощью коннектора источника PostgreSQL):

  • Google Cloud SQL для PostgreSQL
  • Amazon RDS для PostgreSQL
  • PostgreSQL (локально)

См. также: Настройка переключения в случае отказа

Улучшение производительности MySQL

В предыдущих версиях при использовании конечной точки источника на базе MySQL в задаче, для которой настроен ограниченный размер LOB, Шлюз движения данных использовал поиск источника для чтения столбцов LOB. Теперь Шлюз движения данных будет считывать столбцы LOB непосредственно из файла binlog, тем самым повышая производительность.

Примечание к информацииЭто улучшение не относится к типу данных JSON.

Изменения в сопоставлении типов данных

Изменено сопоставление со столбцами LOB для целей Amazon Redshift и Snowflake.

  • BLOB теперь сопоставляется с VARBYTE(16777216).
  • NCLOB теперь сопоставляется с NVARCHAR(65535).
  • CLOB теперь сопоставляется с NVARCHAR(65535).
  • BLOB теперь сопоставляется с BINARY (8388608)
  • NCLOB теперь сопоставляется с NVARCHAR(16777216).
  • CLOB теперь сопоставляется с NVARCHAR(16777216).

Новые поддерживаемые типы данных

  • Теперь поддерживается тип данных BOOLEAN поддерживается (начиная с DB2 for LUW 11.5).

  • Теперь поддерживается тип данных BIGNUMERIC.

Расширенная поддержка целей для управляющей таблицы DDL History

В предыдущих версиях Шлюз движения данных управляющая таблица DDL History поддерживалась только для целей Databricks и Microsoft Fabric. В этой версии добавлена поддержка следующих дополнительных коннекторов для целей:

  • Amazon Redshift
  • Amazon S3
  • Google Cloud Storage
  • Snowflake

См. также: История DDL

Поддержка пользователей без роли суперпользователя в Google Cloud SQL for PostgreSQL

Начиная с этой версии можно указывать учетную запись без роли суперпользователя, при репликации из Google Cloud SQL for PostgreSQL.

См. также: Использование учетной записи без роли суперпользователя

Новые сертифицированные платформы и версии драйверов

  • 15.4 LTS

  • 23ai

    Примечание к информации
    • Источник и цель Oracle 23ai поддерживаются только в Oracle Standard Edition.
    • Для источника Oracle 23ai поддерживается только шифрование TDE.
  • При переносе данных в Databricks теперь требуется драйвер Simba Spark ODBC Driver 2.8.2 или более поздней версии. Клиентам следует либо запустить утилиту установки драйвера, либо установить драйвер вручную.

    Смотрите также: Настройка драйвера

Дата окончания поддержки

Прекращена поддержка следующих версий баз данных:

  • PostgreSQL 12.x
  • IBM DB2 for z/OS: z/OS 2.4
  • Databricks 9.1

Устранение проблем

  • Когда настраивали режим репликации Сохранить изменения, а таблица содержала столбец .INCLUDE, задача не могла создать таблицу __CT в цели.

  • Задача завершалась ошибкой «Нет лицензии для базы данных», когда истекал срок действия секретного ключа Azure Data Lake Storage.

  • Старые файлы не удалялись при запуске новой задачи. Это может привести к тому, что задание не будет выполнено из-за дубликатов записей или из-за несовпадающих записей.

     

  • Ошибка «функция не поддерживается: невозможно выбрать тип, определенный пользователем» появлялась при выборе определенной пользователем таблицы для репликации. Проблема устранена путем исключения из определенных пользователем таблиц (которые не поддерживаются) из селектора таблиц.

  • Сообщение «Ошибка преобразования» иногда появлялось после восстановления, когда возникала ошибка подключения во время CDC.

  • При отключенной поддержке LOB захват данных изменений (CDC) завершался ошибкой «недостаточно столбцов данных», когда предпринималась попытка вставить изменение в таблицу __ct. Эта ошибка появляется при работе в режиме «Сохранить изменения», который является единственным доступным режимом для задач промежуточного хранения.

  • Во время CDC при репликации столбца NOT NULL с типом данных mediumtext задача иногда завершалась следующей ошибкой:

    A NOT NULL constraint violation occurred on LOB column from MySQL source

  • При вставке столбца VARCHAR появлялась следующая ошибка усечения:

    String or binary data would be truncated while reading column of type 'VARCHAR'

    Проблема решена путем умножения столбца VARCHAR в Microsoft Fabric.

11 мая 2026 года
2024.5.54 Стандартный 21 января 2025 г.

Поддержка настройки дополнительных свойств подключений ODBC и JDBC добавлена в целевой коннектор Snowflake

Для получения дополнительной информации см. раздел Дополнительные свойства подключения.

  • Когда первичный ключ изменялся в источнике, целевые метаданные не обновлялись после перезагрузки.

  • При создании и выполнении новой задачи файлы, оставшиеся от предыдущих задач, не удалялись из папки таблиц.

  • Попытка подключения к источнику SAP HANA с помощью CDC на основе журнала приводила к следующей ошибке:

    Cannot select user-defined type

25 августа 2025 г.

2024.5.41

Исправление

19 декабря 2024 г.

Это исправление устраняет следующие проблемы:

  • Пустые строки теперь будут заключаться в кавычки в CSV-файле, чтобы отличить их от значений NULL.

  • В определенных сценариях может возникнуть несоответствие между исходными и целевыми данными.

  • Отключение поддержки LOB в задаче промежуточного хранения приведет к тому, что CDC завершится следующей ошибкой (фрагмент):

    Cannot write to '<name>__ct', not enough data columns

  • Применение изменений к цели в результате восстановления после ошибки подключения иногда приводило к ошибке преобразования (Conversion failed).

25 августа 2025 г.

2024.5.35

Исправление

10 декабря 2024 г.

Это исправление устраняет следующие проблемы:

  • Во время выполнения задачи сохранения тип данных NVARCHAR(3500) неправильно преобразовывался в VARCHAR(10500) вместо VARCHAR(8000) (максимально допустимый), что приводило к ошибке.

  • Если исходная таблица содержала тип данных GRAPHIC с кодовой страницей 941 (японский), возникала следующая ошибка (фрагмент):

    Unexpected CCSID '941' in column 'PNTNM'

25 августа 2025 г.

2024.5.32

Исправление

26 ноября 2024 г.

После обновления имени пользователя и пароля в коннекторе источника Workday Reports и последующей перезагрузки задачи возникала ошибка «Недопустимое имя пользователя или пароль», даже если учетные данные были верными. Теперь эта проблема решена.

25 августа 2025 г.

2024.5.31

Исправление

19 ноября 2024 года

Это исправление устраняет следующие проблемы:

Версия Oracle Java Standard Edition 17.0.8, поставляемая с Шлюз движения данных, имеет несколько известных уязвимостей. Это исправление заменяет 17.0.8 на 17.0.12, тем самым устраняя проблемы.

Во время CDC для каждого изменения в связанную таблицу _ct добавлялось несколько операций INSERT (вместо одной). Это значительно увеличивало количество записей в таблице _ct.

25 августа 2025 г.

2024.5.28

Стандартный

12 ноября 2024 года Предоставляет функциональность, необходимую для функции «Оценка схемы», выпуск которой планируется в ближайшее время.

25 августа 2025 г.

2024.5.27

Исправление

5 ноября 2024 года

Это исправление устраняет следующие проблемы:

14 августа 2024 года компания Snowflake выпустила сообщение о безопасности драйверов Snowflake JDBC >= 3.2.6 и <= 3.19.1, некоторые из которых использовались с предыдущими версиями Шлюз движения данных. Уязвимость была исправлена в версии Snowflake JDBC Driver 3.20, которая теперь устанавливается служебной программой для установки драйвера. Существующие пользователи должны обновить драйвер при первой же возможности, выполнив процедуру Обновление драйвера, описанную в разделе Настройка драйвера.

  • При использовании события redo 11.22 пропадали операторы INSERT (ВСТАВИТЬ), когда обрабатывалось несколько операторов INSERT на сжатой странице, которая не была сжата до выполнения операций INSERT.
  • В редких случаях неправильный разбор событий DELETE в записи журнала повтора приводил к появлению предупреждения «Событие DELETE в журнале повтора содержит неизвестную структуру», в котором далее описаны различные проблемы.

Инструкции в файле YAML были обновлены в соответствии с правильной версией коннектора SAP Java.

При использовании шлюза Шлюз движения данных для подключения к цели Snowflake через прокси-сервер соединение не устанавливается из-за следующей ошибки:

500 Failed to connect to Data Movement Gateway

25 августа 2025 г.

2024.5.22

Исправление

15 октября 2024 г. В этом выпуске решена проблема в задаче репликации «Полная загрузка + CDC», когда для задачи CDC в поле Задача данных обновлена до отображалась метка времени полной загрузки, а не метка времени CDC.

25 августа 2025 г.

2024.5.16

Исправление

8 октября 2024 года
    • При использовании события redo 11.22 иногда в нескольких операциях INSERT отсутствуют операторы INSERT.
    • После обновления Oracle 19g до исправления за июль 2024 года операции UPDATE иногда не захватывались, и на экране появлялось следующее предупреждение:

      A compressed row cannot be parsed

  • Когда параметры задачи были настроены для создания схемы управляющей таблицы, задача завершалась со следующей ошибкой:

    Failed to delete directory

  • Когда было запланировано периодическое выполнение задачи, она иногда завершалось со следующей ошибкой:

    The task stopped abnormally

  • Задачи преобразования и хранения иногда оставались в очереди слишком долгое время.

  • Задача завершается ошибкой при использовании флага функции use_manipulation_pk_for_apply для репликации с сохранением изменений.

  • Продлите тайм-аут S3 до 6 часов, чтобы предотвратить проблемы, возникающие из-за длительных тайм-аутов, такие как потеря токена для загрузки файлов.

25 августа 2025 г.

2024.5.14

Стандартный

10 сентября 2024 г.
  • Пара ключей обеспечивает более надежную проверку подлинности, чем имя пользователя и пароль, для подключения к Snowflake с помощью учетных записей служб. Этот подход рекомендуется для таких рабочих нагрузок, как загрузка данных (репликация или задачи на выгрузку) и преобразования.

  • В предыдущих версиях обновление метаданных существующего набора данных или вновь добавленного набора данных иногда приводило к ошибке. Это улучшение гарантирует успешное получение метаданных из нескольких таблиц параллельно.

  • Если исходная таблица содержала столбец с типом данных DECIMAL, например DECIMAL (38, 20), подготовка задачи хранения в Google BigQuery завершалась следующей ошибкой (фрагмент):

    Column <n> in <table name> has incompatible types: STRING, BIGNUMERIC at [93:1]

    Проблема решена путем сопоставления исходного типа данных DECIMAL с типом данных DECIMAL в Google BigQuery.

  • После внесения изменений в существующее правило схемы в задаче данных возникнет следующая ошибка:

    QRI SQL error not implemented

  • При подготовке задачи промежуточного хранения, подключенной к источнику SAP Application, задача завершается успешно, но в файле журнала repsrv.log появляется следующее сообщение об ошибке:

    Invalid object name 'hk1./QTQVC/QRI'

25 августа 2025 г.

2024.5.7

Стандартный

6 августа 2024 г.
  • Раньше в случае изменения метаданных все таблицы отбрасывались и создавались заново, даже если такое изменение затрагивало не все таблицы. Теперь отбрасываются и повторно создаются только измененные таблицы, благодаря чему улучшается производительность.

  • Таблицы, созданные в исходной базе данных во время выполнения задачи данных репликации, соответствующей шаблону включения, теперь будут автоматически захватываться посредством CDC (захват изменений данных).

    • Раньше при чтении нескольких транзакций из Microsoft SQL Server (MS-CDC), в Qlik Talend Data Integration идентификатор и метка времени сохранялись только для первой транзакции. В цели это выглядело так, будто записи являются частью одной транзакции. Теперь Qlik Talend Data Integration сохраняет исходные идентификатор транзакции и метку времени для каждой отдельной записи. Это полезно для пользователей, которым требуется использовать заголовки столбцов «Идентификатор транзакции» и «Метка времени» в таблицах изменений.

    • Раньше биты в идентификаторе транзакций кодировались в обратном порядке. Начиная с этой версии биты будут кодироваться в правильном порядке. Потребители информации, которым требуется сохранить существующее поведение, могут соответствующим образом настроить внутренние параметры. Для получения дополнительной информации обратитесь в службу поддержки Qlik.

  • Qlik Talend Data Integration теперь поддерживает кэширование модульной проверки подлинности SHA-2 (caching_sha2_password) при работе с источниками или целями MySQL, локальными или облачными. В предыдущих версиях поддерживалась только встроенная модульная проверка подлинности (mysql_native_password).

  • Теперь в Amazon Redshift типы данных BYTES и BLOB можно сопоставить с VARBYTE вместо VARCHAR.

    • PostgreSQL 16.x

    • MySQL 8.1
    • IBM DB2 for z/OS 3.1
    • PostgreSQL 16.x
    • MySQL 8.1
    • Databricks 14.3 LTS
    • Драйвер SQL Server ODBC 18.3

Прекращена поддержка следующих версий баз данных:

  • Все версии и драйверы Oracle до Oracle 19.x
  • Microsoft SQL Server 2014
  • MySQL 5.7
  • PostgreSQL 11
  • IBM DB2 for LUW 10.5
  • IBM DB2 for z/OS: z/OS 2.3
  • Когда захваченное изменение документа кластера удалило все строки из всех захваченных таблиц, будет обнаружена отсутствующая операция DELETE и ненужные сообщения утверждений.

  • Обновление библиотеки проверки подлинности Microsoft Authentication Library for Java (MSAL4J) и Bouncy Castle до версий без известных уязвимостей.

    • Выполнение задач иногда завершается ошибкой при использовании внутреннего хранилища Snowflake.
    • Задача завершается ошибкой, когда в имени целевой схемы использовались японские символы Катакана.
  • При возобновлении задачи с источником Oracle она продолжает ожидать удаленный архивный журнал повтора вместо завершения с выводом соответствующего сообщения об ошибке.

25 августа 2025 г.

2023.11.23

Стандартный

26 июня 2024 года
  • Начиная с этой версии будет создаваться схема метаданных Snowflake (для промежуточных файлов), если она не существует.

  • После изменения правила Переименовать набор данных (которое объединяло имя таблицы с именем схемы) и добавления вида в задачу промежуточного хранения операция подготовки будет завершаться ошибкой:

    QRI SQL error not implemented.

  • Компонент java_file_factory обновлен до версии без известных уязвимостей.
  • Объект org.postgresql:postgresql обновлен до версии без известных уязвимостей.
  • При перемещении данных в SQL Server операция подготовки завершается ошибкой, когда имена индексов содержат более 128 символов. Проблема решена путем изменения логики с целью создания более коротких имен индексов.
  • При перемещении данных из SQL Server отсутствие имени столбца в определениях таблиц приведет к бесконечному циклу уведомлений в файле repsrv.log, при этом будет отображаться следующее сообщение:

    mssql_resolve_sqlserver_table_column_attributes(...) failed to find column

6 февраля 2025 г.

2023.11.11

Стандартный

21 мая 2024 г.
  • Добавлена поддержка одновременного извлечения метаданных для нескольких таблиц.

  • Информация о мониторинге для задач промежуточного хранения и репликации теперь будет обновляться каждые 10 секунд (ранее интервал составлял 60 секунд), что обеспечивает более точное отображение их текущего состояния.

  • Япония теперь поддерживается в качестве региона клиента Qlik Cloud.

  • Интервал повторной попытки подключения между шлюзом данных и Qlik Cloud постоянно увеличивается, но никогда не сбрасывается (пока не перезапустится служба).
  • При перемещении данных из источника приложения SaaS таблицы иногда переходят в состояние ошибки во время перезагрузки.
  • Задачи с использованием источника MySQL иногда завершаются со следующей ошибкой во время CDC:

    Read next binary log event failed; mariadb_rpl_fetch error 0 Error reading binary log.

  • Ранее события аудита CDC регистрировались только для задач промежуточного хранения. Теперь они будут регистрироваться и для задач репликации.
  • При перемещении данных из SQL Server (MS-CDC) на запуск задач, содержащих много таблиц, иногда требуется несколько часов.
  • Когда исходная таблица содержит столбцы CLOB и значение «Ограничить размер столбца LOB» превышает 10240, репликация в Snowflake завершается следующей ошибкой:

    Invalid character length: 0

Определяется при выпуске следующей основной версии.
2023.11.4

Стандартный

12 марта 2024 г.

Заказчики теперь могут устанавливать Шлюз движения данных на платформе Red Hat 9.x или любой соответствующей и совместимой сборки Linux.

Настройка Шлюз движения данных

Внесены изменения в команды для остановки, запуска и проверки состояния службы Шлюз движения данных.

Команды службы Шлюз движения данных

  • Тип данных BOOLEAN, который ранее сопоставлялся с VARCHAR(1) в Amazon Redshift, теперь будет сопоставляться с BOOLEAN.
  • Типы данных BYTES и BLOB, которые ранее сопоставлялись с VARCHAR(1) в Amazon Redshift, теперь будут сопоставляться с VARBINARY (длина).

В этом разделе перечислены новые поддерживаемые базы данных, версии баз данных и версии драйверов.

  • Новые поддерживаемые версии и редакции источников данных

    Теперь поддерживаются следующие версии источников данных:

    • Azure Database for MySQL ― Flexible Server (поддерживается через коннектор источника MySQL)
    • MariaDB 10.4 ― 10.11 (ранее 10.4 и 10.5)
  • Новые поддерживаемые целевые платформы данных и их редакции

    Теперь поддерживаются следующие версии целей данных:

    • Azure Database for MySQL ― Flexible Server (поддерживается через коннектор цели MySQL)
    • Databricks: Databricks 13.3 LTS и Serverless SQL Warehouse
  • Новая поддерживаемая версия драйвера SAP HANA

    Заказчики, использующие источник SAP HANA, которым требуется установить Шлюз движения данных на платформе Red Hat Linux 9.x, необходимо установить 64-разрядную версию драйвера SAP HANA ODBC 2.0.19 или более позднюю.

В этом разделе предоставляется информация о версиях баз данных, поддержка которых прекращена.

  • Прекращена поддержка следующих версий источников данных:

    • Oracle 11.x
    • SAP HANA 1.0
  • Когда при установке Шлюз движения данных не предоставляется пароль сервера, невозможно настроить URL клиента и прокси-сервера с использованием одной команды.
  • При перемещении данных из Salesforce (приложение SaaS) выводится большое количество избыточных предупреждений, что снижает производительность загрузки данных.
  • Если возникает ошибка при извлечении изменений для одной из таблиц источника данных приложения SaaS, эта таблица будет приостановлена и удалена из конвейера данных. Теперь при обнаружении ошибки задача будет предпринимать три попытки получить изменения, прежде чем приостанавливать таблицу.
Определяется при выпуске следующей основной версии.
2023.5.16

Стандартный

9 января 2024 года

Мы продолжаем расширять список поддерживаемых целей для проекта «Репликация» в Qlik Cloud Data Integration. Теперь, помимо Amazon S3, можно выбрать Azure Data Lake Storage (ADLS) и Google Cloud Storage (GCS) для доставки данных в формате Parquet, JSON или CSV в озера данных.

  • Подключение к IBM DB2 for LUW завершалось ошибкой, если размер файлов, необходимых для подключения (таких как сертификат клиента SSL и файл хранилища ключей), превышал 4 КБ.

  • Установка драйвера DB2 завершается ошибкой, когда для этого используется утилита установки драйвера.

7 сентября 2024 г.

2023.5.15

Стандартный

12 декабря 2023 года

Microsoft Fabric присоединяется к постоянно расширяющемуся списку хранилищ данных, которые можно использовать в качестве целей в проектах конвейера данных.

Обновлена версия драйвера Snowflake в программе установки драйверов.

7 сентября 2024 г.

2023.5.10

Стандартный

31 октября 2023 г.

Частное подключение можно использовать для обеспечения безопасности трафика данных и соблюдения требований к трафику. Это упрощает управление сетью и повышает безопасность ВЧО (виртуальное частное облако), не требуя открывать порты встроенных брандмауэров, прокси-устройства и таблицы маршрутизации. Qlik Cloud Data Integration уже поддерживает частные подключения к целям конвейера данных Snowflake, Microsoft SQL Server и Amazon S3. Этот выпуск позволяет дополнительно использовать частные подключения при перемещении данных в Databricks, Microsoft Azure Synapse, Google BigQuery и Amazon Redshift.

  • Все источники данных на базе PostgreSQL — поддержка многодиапазонного типа данных: теперь следующие многодиапазонные типы данных поддерживаются во всех источниках данных на базе PostgreSQL (локальных и облачных).

    • INT4MULTIRANGE
    • INT8MULTIRANGE
    • NUMMULTIRANGE;
    • TSMULTIRANGE.
  • Источник данных AWS Aurora Cloud для PostgreSQL — поддержка ролей, отличных от суперпользователя: пользователю, указанному в коннекторе PostgreSQL, больше не требуется роль суперпользователя для перемещения данных из источника данных AWS Aurora Cloud для PostgreSQL. Это особенно полезно для организаций, где политики корпоративной безопасности не позволяют предоставлять роль суперпользователя непривилегированным пользователям.

Теперь заказчики, которые переносят данные из источника данных Microsoft Azure SQL (MS-CDC), могут использовать базу данных Geo Replica.

Qlik Cloud Data Integration теперь поддерживает чтение данных из зашифрованных табличных пространств Oracle и зашифрованных столбцов в процессе CDC.

Qlik Cloud Data Integration теперь поддерживает клиенты в регионах DE и UK.

В этом разделе перечислены базы данных и версии драйверов, для которых добавлена поддержка.

  • Новые поддерживаемые версии источников данных. Теперь поддерживаются следующие версии источников данных:

    • Microsoft SQL Server 2022
    • Oracle 21c
    • PostgreSQL 15.x
    • DB2 13.1 (при работе с IBM DB2 for z/OS)
    • IBM DB2 for iSeries 7.5
  • Новые поддерживаемые версии целевых платформ данных. Теперь поддерживаются следующие версии целей данных:

    • Databricks (Cloud Storage): Databricks 12.2 LTS и Databricks SQL Serverless
  • Версии драйвера. Теперь поддерживаются следующие версии драйверов ODBC:

    • IBM Data Server Client 11.5.8 для IBM DB2 for z/OZ и IBM DB2 for LUW
    • Драйвер Simba ODBC 3.0.0.1001 для Google Cloud BigQuery
    • Драйвер MySQL ODBC Unicode 8.0.32 (64-разрядный)

Клиенты, перемещающие данные в Microsoft SQL Server, должны обновить свой драйвер SQL Server ODBC до версии 18.x или более поздней. Обратите внимание, что в случае дальнейшего использования драйвера SQL Server ODBC версии 17.x могут возникать ошибки данных. Обновление драйвера можно выполнить с помощью служебной программы для установки драйверов или вручную. Инструкции см. в разделе Настройка драйвера.

В этом разделе предоставляется информация о версиях баз данных, поддержка которых прекращена.

  • Версии баз данных, для которых прекращена поддержка. Прекращена поддержка следующих версий источников данных:

    • PostgreSQL 10
    • MySQL 5.6
    • MariaDB 10.3
  • Версии целевых платформ данных, для которых прекращена поддержка. Прекращена поддержка следующих версий целей данных:

    • Databricks 9.1 LTS

7 сентября 2024 г.

2022.11.74

Стандартный

15 августа 2023 г.

Мы применяем подход «сначала облако», который обеспечивает быструю реализацию инноваций и принятие. Однако это не означает, что наша работа ориентирована только на облако. В рамках нашей постоянной работы по повышению перспективной ценности для наших заказчиков мы рады объявить о добавлении нового сценария применения при создании проектов данных — «Репликация». Новый сценарий применения «Репликация» дополняет существующую возможность создания конвейеров данных для удовлетворения всех потребностей, связанных с интеграцией данных, включая модернизацию хранилища данных.

Проект «Репликация» поддерживает репликацию данных в реальном времени из поддерживаемых источников данных в поддерживаемую цель.

Начиная с данного, самого последнего выпуска, первая цель, которая поддерживает репликацию данных в реальном времени, — это Microsoft SQL Server. В дополнение к поддержке локального сервера Microsoft SQL Server, также поддерживаются следующие облачные поставщики:

  • Локально
  • Amazon RDS
  • Google Cloud
  • Microsoft Azure (Microsoft Azure Managed Instance и Microsoft Azure Database)

Клиенты, перемещающие данные в Microsoft Azure Synapse Analytics, должны обновить свой драйвер SQL Server ODBC до версии 18.x или более поздней. Обратите внимание, что в случае дальнейшего использования драйвера SQL Server ODBC версии 17.x могут возникать ошибки данных. Обновление драйвера можно выполнить с помощью служебной программы для установки драйверов или вручную. Инструкции см. в разделе Настройка драйвера.

Добавлен новый параметр Загрузить данные из источника, который дает пользователям возможность считывать данные непосредственно из источника во время полной загрузки вместо использования кэшированных данных.

Дополнительные данные об этом параметре, а также примеры использования см. в разделе Параметры промежуточного хранения.

Шлюз движения данных 2022.11.74 включает обновленные сертификаты ЦС, необходимые для проверки подлинности клиента Qlik Cloud. Обновленные сертификаты ЦС также обеспечивают поддержку регионов Ирландии и Франкфурта. Таким образом, пользователи с клиентами Qlik Cloud в Ирландии или Франкфурте, которые хотят использовать интеграцию данных Qlik Cloud, должны выполнить обновление до этой версии.

Задачи промежуточного хранения данных из источника Oracle иногда завершаются ошибкой, когда таблица содержит неиспользуемые или неподдерживаемые столбцы или столбцы LOB, которые не были реплицированы.

31 апреля 2024 г.

2022.11.70

Стандартный

28 июня 2023 г.

В предыдущих версиях пользователям требовалось выполнять команду «source arep_login.sh» при установке клиентов SAP. Начиная с данной версии эта команда больше не нужна.

Эта версия включает обновленные сертификаты ЦС, необходимые для проверки подлинности клиента Qlik Cloud.

  • Когда задача репликации в Шлюз движения данных завершается ошибкой и автоматически восстанавливается, восстановленное состояние не передается в ресурс данных промежуточного хранения в Qlik Cloud.

  • Сквозное шифрование для Шлюз движения данных не включалось по умолчанию и контролировалось с помощью флагов времени выполнения.
15 сентября 2023 года

2022.11.63

Стандартный

2 мая 2023 года

Данная версия включает программу для установки драйверов, благодаря которой отпадает необходимость в ручной установке и настройке драйверов. Новая программа ускоряет процесс установки и значительно снижает вероятность ошибки пользователя. При запуске программы необходимый драйвер загружается автоматически, если это возможно, и устанавливается. Если драйвер нельзя загрузить автоматически (например, для загрузки драйверов DB2 необходимо войти в систему), то все, что нужно сделать, это загрузить драйвер, скопировать его в соответствующую папку на компьютере со шлюзом движения данных и запустить программу.

Пример использования программы для установки драйвера PostgreSQL см. в разделе Предварительные требования.

Коннектор Snowflake теперь поддерживает 4-байтовые символы эмодзи.

С помощью коннектора PostgreSQL теперь можно перемещать данные из базы данных Azure для PostgreSQL — гибкий сервер.

С помощью коннектора PostgreSQL теперь можно перемещать данные из Cloud SQL for PostgreSQL.

Данная версия поддерживает следующие новые версии источников данных:

  • PostgreSQL 14
  • DB2 (для IBM DB2 для z/OS) 12.1
  • IBM DB2 для z/OS 2.5

Databricks 11.3 LTS

Следующие версии источников данных больше не поддерживаются:

  • DB2 (для IBM DB2 для z/OS) 11
  • PostgreSQL 9.6
  • Microsoft SQL Server 2012
  • MariaDB 10.2

В данной версии устранены проблемы, приведенные ниже.

  • Источник данных Oracle: при остановке и возобновлении выполнения задачи иногда возникала ошибка «Не удалось установить положение потока в контексте».
  • Источник SAP Application: изменения не будут регистрироваться во время выполнения задачи промежуточного хранения.

15 сентября 2023 года

2022.5.13

Стандартный

19 октября 2022 года

Первоначальный выпуск

August2023

Удаление Шлюз движения данных

Чтобы удалить Шлюз движения данных, выполните следующую команду:

rpm -e <installation package name>

Пример:

rpm -e qlik-data-gateway-data-movement-2023.11-1.x86_64

Если имя пакета неизвестно, выполните:

rpm -qa | grep qlik

Примечание к предупреждениюВ результате удаления Шлюз движения данных все задачи, в данный момент использующие шлюз данных, завершатся ошибкой.

Помогла ли вам эта страница?

Если вы обнаружили какую-либо проблему на этой странице или с ее содержанием — будь то опечатка, пропущенный шаг или техническая ошибка, сообщите нам об этом!