Ana içeriğe geç Tamamlayıcı içeriğe geç

Veri Hareketi ağ geçidi yükseltme ve yüklemesini kaldırma

Bu konuda, Veri Hareketi ağ geçidi yüklemenizi nasıl yükselteceğiniz veya kaldıracağınız açıklanmaktadır. Her bir Veri Hareketi ağ geçidi sürümünde sunulan değişiklikleri listeleyen bir tablo da sağlar.

Yükseltme yordamı

Geçerli sürümünüzü doğrulamak için Yönetim > Veri ağ geçitleri bölümüne gidin ve Veri Hareketi ağ geçidi öğenize karşılık gelen Sürüm sütununu kontrol edin.

Yeni bir sürüm mevcutsa sürüm numarasına ! eklenir. Daha fazla bilgi almak için Bilgi öğesinin üzerine gelebilirsiniz.

Bilgi notuSürümler bazen düzeltme olarak yayınlanır. Yalnızca yeni bir standart sürüm mevcutsa (bir düzeltme sürümünün aksine) ! gösterilecektir. Bir sürümün düzeltme sürümü mü yoksa standart sürüm mü olduğunu öğrenmek için aşağıdaki sürüm Veri Hareketi ağ geçidi geçmişi tablosundaki Tür sütununa bakın.

Yüklü ağ geçidi sürümü desteklenmiyorsa Durum Devre Dışı bırakılır ve ağ geçidini etkinleştirmek için bir yükseltme gerekir.

Yeni bir Veri Hareketi ağ geçidi rpm sürümü kullanıma sunulduğunda bu sürümü Yönetim bölümünden indirip mevcut yüklemeyi yükseltmelisiniz.

Bunu yapmak için:

  1. Ağ geçidinde Daha fazla öğesine ve ardından Yükselt'e tıklayarak yeni sürümü indirin.

    Müşteri sözleşmesini onaylayın ve RPM'yi indirmeye devam edin.

  2. Bir kabul istemi açıp çalışma dizinini RPM dosyasını içeren çalışma dizinine geçirin.
  3. Şu komutu çalıştırın:

    Söz Dizimi:

    rpm -U <rpm name>

    Örnek:

    sudo rpm -U qlik-data-gateway-data-movement.rpm

  4. Veri Hareketi ağ geçidi hizmetini başlatın.

    sudo systemctl start repagent

  5. İsteğe bağlı olarak hizmetin başlatıldığını doğrulayın:

    sudo systemctl status repagent

    Durum aşağıdaki gibi olmalıdır:

    Active: active (running) since <timestamp> ago

Veri Hareketi ağ geçidi sürüm geçmişi

Sürüm

Tür

Yayınlanma tarihi

Önemli değişiklikler

Destek sonu tarihi

2025.5.22 Standart 25 Kasım 2025

Bu sürümden itibaren, veri görevi hedef Databricks Delta tablolarında RELY anahtar sözcüğünü kullanarak bir birincil anahtar oluşturacaktır. Databricks birincil anahtar kısıtlamalarını uygulamazsa da RELY anahtar sözcüğüne sahip birincil anahtarların çoğaltma içermediği varsayılır ve bu nedenle Databricks tarafından sorgu optimizasyonu için kullanılabilir.

Gereksinimler:

  • Bağlayıcı ayarlarında bir Katalog seçmelisiniz.

  • Databricks 14.2 veya üzeri

  • IBM DB2 for iSeries kaynağı: Aşağıdaki veri türleri için destek eklenmiştir: BINARY-DECIMAL ve ZONED-DECIMAL

  • Databricks hedefi: Önceki sürümlerde BYTES, STRING ile eşlenmişti. Bu sürümden itibaren, VARCHAR (Bayt Cinsinden Uzunluk) ile eşlenecektir.

  • Google Cloud BigQuery hedefi: JSON alt türü artık Google Cloud BigQuery hedefi tarafından desteklenmektedir.

PostgreSQL tabanlı veri kaynaklarından bölümlerin ve alt bölümlerin (ve alt-alt bölümlerin) çoğaltılması (Tam Yükleme ve CDC) artık varsayılan olarak destekleniyor.

Google Cloud BigQuery hedefi artık veri kesme hatası işlemeyi destekliyor. Bir veri kesme hatası oluşursa kaydı istisnalar kontrol tablosuna kaydetmeyi (varsayılan), kaydı yok saymayı, tabloyu askıya almayı veya görevi durdurmayı seçebilirsiniz.

Aşağıdaki kaynak ve hedef uç noktası sürümleri artık desteklenmektedir:

  • MariaDB (şirket içi) ve Amazon RDS for MariaDB: 11.4

  • MySQL (şirket içi), MySQL Percona, Google Cloud SQL for MySQL, Amazon RDS for MySQL ve Microsoft Azure Database for MySQL - Flexible Server: 8.4

  • PostgreSQL (şirket içi), Google Cloud SQL for PostgreSQL, Amazon RDS for PostgreSQL ve Microsoft Azure Database for PostgreSQL - Flexible Server: 17.x

IBM Data Server Client 11.5.9 artık aşağıdaki DB2 kaynakları için desteklenmektedir:

  • IBM DB2 for LUW

  • IBM DB2 for z/OS

  • Kullanım ömrü sonu kaynakları ve hedefleri: Microsoft tarafından resmi olarak kullanımdan kaldırılan Microsoft Azure Database for MySQL ve Microsoft Azure Database for PostgreSQL desteği sonlandırılmıştır.

  • Kullanım ömrü sonu kaynak sürümleri: Kullanım ömrü sonu olan IBM DB2 for iSeries 7.2 desteği sonlandırılmıştır.

  • Kullanım ömrü sonu sürücü sürümleri: IBM Data Server Client 11.5.6 desteği sonlandırılmıştır.

Çözülen sorunlar

  • HSTS, Qlik Data Gateway - Veri Hareketi makinesinde etkinleştirilmedi.

  • Veri Hareketi ağ geçidi'in Redhat Sürüm 9.7 üzerine kurulumu, "OPENSSL_3.4.0 bulunamadı" hatasıyla başarısız olurdu.

  • CDC sırasında, görev aynı WAL girişlerini okumaya ve aynı klasör konumunu işlemeye devam ederdi.

  • Bir CDC görevi değişiklikler sırasında durduktan sonra (örneğin bir bağlantı sorunu nedeniyle), görevi sürdürmek bazen satır uzunluğu hatalarına neden olurdu.

  • Önizleme veya Lite bağlayıcı kullanan bir görev çalıştırıldıktan sonra kaynak bağlantı günlükleri kullanılamaz olurdu.

  • Bir Tam Yükleme ve CDC görevinin CDC aşamasında bir tablo askıya alındığında İzleme sekmesi bir hata mesajı göstermezdi.

Sonraki büyük sürüm yayınlandığında belirlenir
2024.11.95 Standart 4 Kasım 2025

Databricks platformunda bilgi birikimi ambarları oluşturma desteği

Daha önce bilgi birikimi ambarları yalnızca Snowflake üzerinde destekleniyordu. Artık bilgi birikimi ambarlarını ve dosya tabanlı bilgi birikimi ambarlarını Databricks üzerinde de oluşturabilir ve çalıştırabilirsiniz.

Çözülen sorunlar:

Görevler, hazırlık sırasında şu hatayla aralıklı olarak başarısız oluyordu:

The request was canceled due to the configured HttpClient.Timeout of 300 seconds elapsing.

11 Mayıs 2026
2024.11.90 Standart 21 Ekim 2025

Çözülen sorunlar:

metadataschema Dahili özelliği özel karakterlerle tanımlandığında, görev CDC sırasında başarısız oluyordu.

11 Mayıs 2026
2024.11.84 Düzeltme 16 Eylül 2025

Çözülen sorunlar:

  • EU-Central-1 bölgesindeki müşteriler Veri Hareketi ağ geçidi kullandıklarında sık sık üretim uyarılarıyla karşılaşacaklardır.

  • Jira'dan veri çoğaltırken, diğer tablolar yüklemeyi başarıyla tamamlarken USERS tablosu ilk çalıştırmada Kuyrukta durumunda takılı kalıyordu.

  • CDC izlemesi, görev monitöründe eksikti.

  • Oracle lie Oracle arasındaki çoğaltma görevleri, dize uzunluğunun yanlış hesaplanması nedeniyle bazen başarısız olabiliyordu.

  • Java sunucu bileşeni (sqlite-jdbc), önceki sürümlerdeki bilinen bir güvenlik açığı nedeniyle 3.47.0 sürümüne güncellendi.

  • Bir görev daha önce başlatılmadan ilk kez devam ettirme modunda başlatıldığında bazen "Veritabanı için lisans yok" hatası oluşuyordu.

  • Salesforce veri kaynağına sahip bir açılış görevine yeni veri kümeleri eklemek, görevin "'Tablo mevcut değil'" hatasıyla başarısız olmasına neden olur.

11 Mayıs 2026
2024.11.78 Standart 3 Eylül 2025
Uyarı notu

Snowflake hedefi kullanan müşteriler, Veri Hareketi ağ geçidi yükseltmesi tamamlandığında Snowflake sürücülerini yükseltmelidir. Aksi takdirde görevler başarısız olacaktır.

Talimatlar için bkz. Sürücü kurulumu

  • Depolama görevleri, ağ geçidinin yeniden başlatılmasını gerektiren bir bağlantı hatasıyla başarısız oluyordu.

  • /tmp klasörüne erişim kısıtlandığında DB2 sürücü yüklemesi başarısız oluyordu.

  • Veri Hareketi ağ geçidi sürümünü 2024.11.65'e yükselttikten sonra Qlik Cloud bağlantısı kurmak aşırı zaman alıyordu. Sorun, iki dakikalık zaman aşımına sahip bir iptal belirteci eklenerek çözüldü.

  • Veri Hareketi ağ geçidi 2024.11.67 sürümüne yükselttikten sonra, /tmp klasöründeki erişim kısıtlamaları nedeniyle external-data-provider hizmeti (Lite bağlayıcıları tarafından kullanılır) çöktü.

  • Aşağıdaki bileşenler, bilinen güvenlik açıkları nedeniyle daha sonraki sürümlerle değiştirilmiştir:

    • SQLite 3.49.1

    • Java Runtime Engine 17.0.15

    • org.bouncycastle:bcpkix-fips 2.0.7 (bcpkix-fips-2.0.7.jar)

    • org.bouncycastle:bc-fips 2.0.0 (bc-fips-2.0.0.jar)

  • SMB'ye bağlanma işlemi aşağıdaki hata verilerek başarısız oluyordu:

    SmbConnection' object has no attribute 'docs_path'

  • Bir görevi ikinci kez hazırlarken ve ilk hazırlamadan sonra bir DDL oluştuğunda, hazırlama işlemi bazen aşağıdaki hata ile başarısız oluyordu (alıntı):

    Could not find match between landing metadata with gateway task metadata for the following tables: <name>

  • Microsoft SQL Server hedefi kullanılırken önizleme verileri seçeneği çalışmıyordu.

  • Bu sürümde, Qlik Cloud Government DoD ile Veri Hareketi ağ geçidi kullanımı için destek eklenir.

11 Mayıs 2026
2024.11.70 Standart 12 Ağustos 2025
  • Çoğaltma ve yerleştirme görevleri için tablo hatası işleme ayarlarına yeni bir Tablo hatası döndürmeden önce yeniden deneme sayısı ayarı eklendi. Daha önce, bir tablo hatası oluştuğunda tablo askıya alınır veya görev durdurulurdu (seçilen hata işleme eylemine göre). Bu durum bazen SaaS uygulaması bakım zaman aralığı sırasında tabloların askıya alınmasına neden oluyordu. Bu yeni seçenekle, tablo hata işleme politikası tetiklenmeden önce tablonun kaç kez yeniden denenmesi gerektiğini belirlemek artık mümkün. Bu seçenek, SaaS uygulamanız periyodik bakımdan geçiyorsa özellikle kullanışlıdır, çünkü varsayılan yeniden deneme sayısını (3) geçersiz kılarak bakımın tablo hata işleme politikasını tetiklemeden tamamlanmasını sağlayabilirsiniz.

    Tablo hata işleme

    Bilgi notuBu seçenek yalnızca Lite veya Standard SaaS uygulama bağlayıcısı ile yapılandırılmış görevler için gösterilecektir.
  • Bir SQL dönüşümünü önizlerken, sonuçlar artık sütun veri türlerini içerecektir.

    Verileri önizleme

11 Mayıs 2026
2024.11.67 Standart 29 Temmuz 2025
  • Ağ geçidi makinesindeki çoğaltma günlük dosyaları için bir devir ve temizleme politikası uygulanmıştır. Devir politikası günlük dosyalarının çok büyük olmasını önlerken (bu da performansı ve analizi etkiler), temizleme politikası da bunların birikmesini ve aşırı disk alanı tüketmesini önler.

  • Askıya alınmış bir tablo yeniden yüklenirken, monitörde gösterilen tablo durumu bazen yanlış olabiliyordu.

  • Bir veri kümesi ekledikten sonra bir yerleştirme görevi hazırlarken, varlıkların kataloglanması aşamasında bazen zaman aşımı meydana geliyordu. Bu, Hazırlama işleminin başarısız olmasına neden oluyordu.

11 Mayıs 2026
2024.11.65 Düzeltme 22 Temmuz 2025

Bu düzeltme aşağıdaki sorunları çözmektedir:

  • Bir çoğaltma görevine yeni bir tablo eklerken ve Hazırla'ya tıklarken bazen aşağıdaki hata oluşuyordu:

    Prepare data task failed: Object reference not set to an instance of an object.

  • Aşağıdaki Veri Hareketi ağ geçidi kurulum dosyaları bilinen güvenlik açıkları olmayan sürümlere güncellendi:

    • java

    • jetty-io-<sürüm>.jar

    • jetty-http-<version>.jar

    • spring-expression-<version>.jar

    • spring-core-<version>.jar

    • spring-context-<version>.jar

11 Mayıs 2026
2024.11.61 Düzeltme 15 Temmuz 2025 Python 3.12 yüklü bir makineye ai-local-agent (vektör veritabanı ve LLM bağlantısı için gereklidir) yüklenemiyordu. Bu düzeltme sorunu çözmektedir. 11 Mayıs 2026
2024.11.59 Düzeltme 1 Temmuz 2025

Bu düzeltme aşağıdaki sorunları çözmektedir:

  • Veri Hareketi ağ geçidi 2024.11.54 sürümüne yükselttikten sonra veritabanına bağlanılamıyordu.

  • Görev bir SaaS uygulama kaynağı ve bir Google BigQuery hedefi ile yapılandırıldığında veri görevi hazırlanamıyordu.

  • Java tabanlı veri kaynaklarına sahip görevler Veri Hareketi ağ geçidi 2024.11.54 sürümüne yükseltildikten sonra başarısız oluyordu.

  • CDC sırasında, kaynak tablodaki bir STRING sütunu 65536 baytı aştığında veriler hedef STRING sütununda kesiliyordu. Görev daha sonra "tek tek" uygulama moduna geçiyordu.

  • java_file_factory.jar ve arep-google-cloud.jar dosyaları bilinen güvenlik açıkları olmayan sürümlere yükseltildi.

11 Mayıs 2026
2024.11.54 Düzeltme 17 Haziran 2025

Bu düzeltme aşağıdaki sorunları çözmektedir:

  • Tam yük sırasında görev, Hedef tablo zaten mevcutsa: Yoksay ile yapılandırılmış olsa bile, görev hedef tabloları bırakır ve yeniden oluşturur

  • Çoğaltma modu tam yük olarak ayarlanmış mevcut bir çoğaltma görevini durdurup hazırladıktan ve değişiklikleri uyguladıktan sonra, CDC işlenen kayıt sayısı artarak yanlış bir sayıma neden oluyordu.

  • Mevcut bir göreve yeni bir veri kümesi eklendiğinde görev aşağıdaki hatayla başarısız oluyordu:

    Could not find a match between landing metadata and gateway task metadata for the following tables: <name>

  • SAP ve SQL tabanlı kaynaklara test bağlantısı başarısız oluyordu.

  • Ağ geçidini yükselttikten sonra, görevler bazen beklendiği gibi devam etmiyordu.

11 Mayıs 2026
2024.11.45 Standart 20 Mayıs 2025

Snowpipe Akışı desteği

Önceden, Snowflake'e veri yüklemek için kullanılabilen tek yöntem Toplu yükleme idi. Artık müşteriler, verilerini Snowflake'e aktarmak veya çoğaltmak için Toplu yükleme'yi ya da Snowpipe Akışı'nı kullanabilir.

Snowpipe Akışı'nın Toplu yükleme'ye göre avantajları şunlardır:

  • Daha az maliyetli: Snowpipe Akışı, Snowflake deposunu kullanmadığından, işletim maliyetleri önemli ölçüde daha ucuz olmalıdır, ancak bu sizin özel kullanım durumunuza bağlı olacaktır.
  • Daha az gecikme süresi: Veriler doğrudan hedef tablolara aktarıldığından (hazırlama yerine), veri kaynağından hedefe çoğaltma daha hızlı olmalıdır.

Çözülen sorunlar

Bu düzeltme aşağıdaki sorunları çözmektedir:

  • Microsoft Fabric bağlayıcısını kullanarak veritabanlarına göz atarken aşağıdaki hata oluşuyordu (alıntı):

    Create connection failed'' with error 'java.lang.NoSuchMethodError

    Sorun, sürücü kurulumu yardımcı programıyla yüklenen 12.9.0-preview.jar JDBC sürücüsüyle bir uyumsuzluktan kaynaklanıyordu. Yardımcı program artık uyumlu bir sürücü yüklemek üzere güncellenmiştir.

  • Veri Hareketi ağ geçidi yükseltmesini yaptıktan veya Veri Hareketi ağ geçidi hizmetini yeniden başlattıktan sonra Java sunucusu (SAP ODP gibi Java tabanlı bağlayıcılar için gereklidir) başlatılamıyordu.

    • Uçtan uca şifreleme, Qlik Cloud Yönetim etkinlik merkezinden müşteri tarafından barındırılan günlükleri döndüren günlük kaydı komutu yükleri için karşılıklı olarak zorlanmıyordu.

    • Veri Hareketi ağ geçidi tarafından kullanılan SQLite sürümü, 3.42.0 (CVE-2023-7104) sürümündeki bir güvenlik açığı nedeniyle yükseltildi.

    • Veri Hareketi ağ geçidi tarafından kullanılan com.h2database dosyası, h2-2.1.212 (CVE-2022-45868) sürümündeki bir güvenlik açığı nedeniyle yükseltildi.

11 Mayıs 2026
2024.11.34 Düzeltme 1 Nisan 2025

Bu yama, bir IBM DB2 for iSeries veri kaynağından veri taşırken karşılaşılan aşağıdaki sorunu çözer:

ISeries Access ODBC Driver 07.01.026 veya sonraki bir sürümü kullanıldığında görev, CDC sırasında "Ayrıştırma hatası" vererek başarısız oluyordu.

11 Mayıs 2026
2024.11.30

Standart

18 Mart 2025

Müşteriler artık Databricks'in hesap kimlik doğrulaması için önerdiği yöntem olan OAuth kimlik doğrulamasını kullanarak Databricks hedefine bağlanabilirler. Kişisel Erişim Belirteci kimlik doğrulaması şimdilik geriye dönük uyumluluk için kullanılabilir durumda kalacaktır, ancak OAuth'tan daha az güvenli olduğu düşünülmektedir.

  • Bir veri kümesi paralel yükleme ile tanımlandığında ve daha sonra tam yük devre dışı bırakıldığında, görev zaman damgasından devam ettirilse bile bu veri kümesinin tam yük gerçekleştirmeye devam ediyordu.

11 Mayıs 2026

2024.11.24

Düzeltme

11 Mart 2025

Bu düzeltme aşağıdaki sorunları çözmektedir:

  • Adında nokta olan tablolar için meta veri oluşturma işlemi tamamlanamıyordu (ör. Deprec.Area).

  • Görevler, çevresel bir sorun nedeniyle tam yük sırasında başarısız olursa yalnızca bir kez kurtarılır. Artık Ayarlar > Hata işleme > Çevresel hatalar > Maksimum yeniden deneme sayısı bölümünde yapılandırılan sayıda kurtarılacaktır.

11 Mayıs 2026
2024.11.14 Standart 25 Şubat 2025

Geliştirmeler

PostgreSQL yük devretme sertifikası

Yük devretmeden sonra ikincil bir veritabanı ile çalışmak aşağıdaki veri kaynakları ile onaylanmıştır (hepsine PostgreSQL kaynak bağlayıcısı kullanılarak erişilebilir):

  • Google Cloud SQL for PostgreSQL
  • Amazon RDS for PostgreSQL
  • PostgreSQL (şirket içinde)

Ayrıca bkz: Yük devretmeyi ayarlama

MySQL performans iyileştirmesi

Önceki sürümlerde, sınırlı LOB boyutu ile yapılandırılmış bir görevde MySQL tabanlı bir kaynak uç noktası kullanıldığında Veri Hareketi ağ geçidi, LOB sütunlarını okumak için kaynak aramayı kullanıyordu. Şimdi Veri Hareketi ağ geçidi, LOB sütunlarını doğrudan binlog'dan okuyacak ve böylece performansı artıracaktır.

Bilgi notuBu iyileştirme JSON veri türü için geçerli değildir.

Veri türü eşlemesindeki değişiklikler

Amazon Redshift ve Snowflake hedefi için LOB sütunlarına eşlemeler değiştirildi.

  • BLOB artık VARBYTE(16777216) ile eşlenmiştir
  • NCLOB artık NVARCHAR(65535) ile eşlenmiştir
  • CLOB artık NVARCHAR(65535) ile eşlenmiştir
  • BLOB artık BINARY (8388608) ile eşlenmiştir
  • NCLOB artık NVARCHAR(16777216) ile eşlenmiştir
  • CLOB artık VARCHAR(16777216) ile eşlenmiştir

Yeni desteklenen veri türleri

  • Artık BOOLEAN veri türünü desteklemektedir (LUW için DB2 11.5 sürümünden itibaren).

  • Artık BIGNUMERIC veri türünü desteklemektedir.

DDL Geçmiş kontrol tablosu için genişletilmiş hedef desteği

Önceki Veri Hareketi ağ geçidi sürümlerinde DDL Geçmişi kontrol tablosu yalnızca Databricks ve Microsoft Fabric hedefleriyle destekleniyordu. Bu sürüm aşağıdaki ek hedef bağlayıcıları için destek sunar:

  • Amazon Redshift
  • Amazon S3
  • Google Cloud Storage
  • Snowflake

Ayrıca bakınız: DDL geçmişi

PostgreSQL için Google Cloud SQL ile süper kullanıcı olmayan bir kullanıcı kullanma desteği

Bu sürümden itibaren, PostgreSQL için Google Cloud SQL'den çoğaltma yaparken artık süper kullanıcı olmayan bir hesap belirtmek mümkündür

Ayrıca bkz: Süper kullanıcı rolü olmadan bir hesabı kullanma

Yeni onaylanan platformlar ve sürücü sürümleri

  • 15.4 LTS

  • 23ai

    Bilgi notu
    • Oracle 23ai kaynağı ve hedefi yalnızca Oracle Standard Edition ile onaylanmıştır.
    • Oracle 23ai kaynağı yalnızca TDE şifrelemesi ile desteklenir.
  • Verileri Databricks'e taşırken artık Simba Spark ODBC Driver 2.8.2 veya sonraki sürümü gereklidir. Müşteriler ya sürücü yükleme yardımcı programını çalıştırmalı ya da sürücüyü manuel olarak yüklemelidir.

    Ayrıca bkz.: Sürücü kurulumu

Destek sonu

Aşağıdaki veritabanı sürümleri için destek kesilmiştir:

  • PostgreSQL 12.x
  • z/OS için IBM DB2: z/OS 2.4
  • Databricks 9.1

Çözülen sorunlar

  • Çoğaltma modu Değişiklikleri Sakla olarak ayarlandığında ve tablo bir .INCLUDE sütunu içerdiğinde görev, hedefte __CT tablosunu oluşturmada başarısız oluyordu.

  • Azure Data Lake Storage parola anahtarının süresi dolduğunda görev başarısız olur ve "Veritabanı için lisans yok" hatası gösterilir.

  • Yeni bir görev çalıştırıldığında eski dosyalar silinmez. Bu, görevin yinelenen kayıtlar veya eşleşmeyen kayıtlar nedeniyle başarısız olmasına neden olabilir.

     

  • Çoğaltma için kullanıcı tanımlı bir tablo seçerken "özellik desteklenmiyor: kullanıcı tanımlı tür seçilemiyor" hatası oluşuyordu. Sorun, kullanıcı tanımlı tabloların (desteklenmeyen) tablo seçiciden hariç tutulmasıyla giderildi.

  • CDC sırasında oluşan bir bağlantı hatasından kurtulduktan sonra bazen "Dönüştürme başarısız oldu" hatası oluşabiliyordu.

  • LOB desteği devre dışı bırakıldığında, CDC değişikliği __ct tablosuna eklemeye çalışırken "yeterli veri sütunu yok" hatası veriyordu. Bu hata, yerleştirme görevleri için kullanılabilen tek mod olan "Değişiklikleri Sakla" modunda çalışırken ortaya çıkıyordu.

  • CDC sırasında, mediumtext veri türüne sahip bir "NOT NULL" sütunu çoğaltılırken görev bazen aşağıdaki hatayla başarısız oluyordu:

    A NOT NULL constraint violation occurred on LOB column from MySQL source

  • Bir VARCHAR sütunu eklenirken aşağıdaki kesme hatası oluşuyordu:

    String or binary data would be truncated while reading column of type 'VARCHAR'

    Sorun, Microsoft Fabric'te VARCHAR sütunu çarpılarak çözüldü.

11 Mayıs 2026
2024.5.54 Standart 21 Ocak 2025

Snowflake hedef bağlayıcısına, ek ODBC ve JDBC bağlantı özellikleri belirtme desteği eklendi.

Daha fazla bilgi için şuraya bakın: Ek bağlantı özellikleri.

  • Kaynakta bir birincil anahtar değiştirildiğinde hedef meta veriler yeniden yüklemeden sonra güncellenmiyordu.

  • Yeni bir görev oluştururken ve çalıştırırken, önceki görevlerden kalan dosyalar tablo konumundan silinmiyordu.

  • Günlük tabanlı CDC kullanarak bir SAP HANA kaynağına bağlanmaya çalışıldığında aşağıdaki hata oluşuyordu:

    Cannot select user-defined type

25 Ağustos 2025

2024.5.41

Düzeltme

19 Aralık 2024

Bu düzeltme aşağıdaki sorunları çözmektedir:

  • Boş dizeler artık CSV dosyasında NULL değerlerden ayırt edilmeleri için tırnak içine alınacaktır.

  • Belirli senaryolarda kaynak ve hedef veriler arasında bir uyumsuzluk meydana gelebilir.

  • Yerleştirme görevinde LOB desteğinin devre dışı bırakılması CDC'nin aşağıdaki başarısız olarak şu hatayı vermesine neden olur (alıntı):

    Cannot write to '<name>__ct', not enough data columns

  • Bir bağlantı hatasından kurtulduktan sonra değişiklikleri hedefe uygulamak bazen başarısız olarak "Dönüştürme başarısız oldu" hatası veriyordu.

25 Ağustos 2025

2024.5.35

Düzeltme

10 Aralık 2024

Bu düzeltme aşağıdaki sorunları çözmektedir:

  • Bir depolama görevi sırasında, NVARCHAR(3500) veri türü, VARCHAR(8000) (izin verilen maksimum değer) yerine yanlışlıkla VARCHAR(10500) türüne dönüştürülerek bir hataya neden oluyordu.

  • Kaynak tablo, 941 (Japonca) kod sayfasına sahip bir GRAFİK veri türü içerdiğinde aşağıdaki hata meydana oluşuyordu (alıntı):

    Unexpected CCSID '941' in column 'PNTNM'

25 Ağustos 2025

2024.5.32

Düzeltme

26 Kasım 2024

Workday Raporları kaynak bağlayıcısında kullanıcı adı ve parolayı güncelledikten ve ardından görevi yeniden yükledikten sonra, kimlik bilgileri doğru olsa bile "Geçersiz kullanıcı adı veya parola" hatası oluşuyordu. Bu sorun çözüldü.

25 Ağustos 2025

2024.5.31

Düzeltme

19 Kasım 2024

Bu düzeltme aşağıdaki sorunları çözmektedir:

Veri Hareketi ağ geçidi ile birlikte gelen Oracle Java Standard Edition 17.0.8 sürümünde bilinen birçok güvenlik açığı bulunmaktadır. Bu düzeltme 17.0.8'i 17.0.12 ile değiştirerek sorunları çözmektedir.

CDC sırasında, her değişiklik için ilişkili _ct tablosuna (yalnızca bir değil) birden fazla INSERT işlemi eklenecektir. Bu, _ct tablosundaki kayıt sayısını önemli ölçüde artıracaktır.

25 Ağustos 2025

2024.5.28

Standart

12 Kasım 2024 Yakında yayınlanacak olan Şema Değişimi özelliği için gerekli işlevselliği sağlar.

25 Ağustos 2025

2024.5.27

Düzeltme

5 Kasım 2024

Bu düzeltme aşağıdaki sorunları çözmektedir:

14 Ağustos 2024 tarihinde Snowflake, bazıları önceki Veri Hareketi ağ geçidi sürümleriyle kullanılan Snowflake JDBC sürücüleri >= 3.2.6 & <= 3.19.1 hakkında bir güvenlik uyarısı yayınladı. Güvenlik açığı, şu anda sürücü yükleme yardımcı programıyla birlikte yüklenen sürüm olan Snowflake JDBC Driver 3.20'de düzeltilmiştir. Mevcut müşteriler, Sürücü kurulumu bölümünde açıklanan Sürücüyü güncelleme prosedürünü izleyerek ilk fırsatta sürücülerini yükseltmelidir.

  • Redo olayı 11.22 kullanılırken, INSERT işlemlerinden önce sıkıştırılmamış bir sıkıştırılmış sayfada birden fazla INSERT işlenirken eksik INSERT işlemleri oluşuyordu.
  • Nadiren, yineleme günlüğü kaydındaki DELETE olaylarının yanlış ayrıştırılması "Yineleme Günlüğü DELETE olayı bilinmeyen bir yapı içeriyor" uyarısı ve ardından çeşitli sorunlar oluşturuyordu.

YAML dosyasındaki talimatlar, SAP Java Connector'ın doğru sürümünü yansıtacak şekilde güncellendi.

Snowflake hedefine bir proxy aracılığıyla bağlanmak için Veri Hareketi ağ geçidi kullanıldığında bağlantı başarısız oluyor ve aşağıdaki hatayı veriyordu:

500 Failed to connect to Data Movement Gateway

25 Ağustos 2025

2024.5.22

Düzeltme

15 Ekim 2024 Bu düzeltme, Tam Yük + CDC çoğaltma görevinde, CDC görevi için Veri görevi şu şekilde güncellendi: alanında, CDC zaman damgaları yerine Tam Yük zaman damgasını gösterilmesine neden olan bir sorunu çözmektedir.

25 Ağustos 2025

2024.5.16

Düzeltme

8 Ekim 2024
    • Redo olayı 11.22 kullanılırken birden fazla INSERT işleminde bazen eksik INSERT'ler oluşabiliyordu.
    • Oracle 19g'yi Temmuz 2024 düzeltmesine yükselttikten sonra, UPDATE işlemleri bazen yakalanamıyor ve aşağıdaki uyarı gösteriliyordu:

      A compressed row cannot be parsed

  • Görev ayarları, kontrol tablosu şemasını oluşturacak şekilde yapılandırıldığında, görev aşağıdaki hatayla başarısız oluyordu:

    Failed to delete directory

  • Bir görev periyodik olarak çalışacak şekilde zamanlandığında bazen başarısız oluyor ve aşağıdaki hatayı veriyordu:

    The task stopped abnormally

  • Dönüşüm ve depolama görevleri bazen aşırı uzun süre Kuyruğa alındı durumunda kalabiliyordu.

  • Değişiklikleri Sakla çoğaltması ile use_manipulation_pk_for_apply özellik bayrağı kullanıldığında görevler başarısız oluyordu.

  • Dosyaları indirmek için belirteci kaybetmek gibi uzun süreli zaman aşımlarından kaynaklanan sorunları önlemek için S3 zaman aşımı 6 saate çıkarıldı.

25 Ağustos 2025

2024.5.14

Standart

10 Eylül 2024
  • Anahtar/çift, hizmet hesaplarınızla Snowflake'e bağlanmak için kullanıcıdan/paroladan daha sağlam bir kimlik doğrulama yöntemi sağlar. Bu yaklaşım, veri yükleme (çoğaltma veya yerleştirme görevleri) ve dönüşümler gibi iş yükleri için önerilir.

  • Önceki sürümlerde, mevcut bir veri kümesindeki veya yeni eklenen bir veri kümesindeki meta verileri yenilemek bazen başarısız oluyor ve bir hata veriyordu. Bu geliştirme, meta verilerin birden fazla tablodan herhangi bir sorun olmadan paralel olarak alınabilmesini sağlar.

  • Bir kaynak tablo DECIMAL veri türüne sahip örneğin, DECIMAL (38, 20) gibi bir sütun içerdiğinde, Google BigQuery'de depolama görevini hazırlamak başarısız oluyor ve aşağıdaki hata veriliyordu (alıntı):

    Column <n> in <table name> has incompatible types: STRING, BIGNUMERIC at [93:1]

    Sorun, Google BigQuery'de kaynak DECIMAL veri türü DECIMAL ile eşlenerek çözüldü.

  • Bir veri görevinde mevcut bir şema kuralında değişiklik yaptıktan sonra aşağıdaki hata meydana gelir:

    QRI SQL error not implemented

  • Bir SAP Uygulama kaynağına bağlanan bir yerleştirme görevi hazırlanırken, görev başarıyla tamamlanır, ancak repsrv.log günlük dosyasında aşağıdaki hata rapor edilir:

    Invalid object name 'hk1./QTQVC/QRI'

25 Ağustos 2025

2024.5.7

Standart

6 Ağustos 2024
  • Daha önce bir meta veri değişikliği gerçekleştiğinde meta veri değişikliği tüm tabloları etkilemese bile tüm tablolar kullanımdan kaldırılıp yeniden oluşturuluyordu. Artık yalnızca etkilenen tablolar kullanımdan kaldırılacak ve yeniden oluşturulacak, bu sayede performans artırılacak.

  • Desen ekle ile eşleşen çoğaltma veri görevi sırasında kaynak veritabanında oluşturulan tablolar artık CDC (Değişiklik verisi yakalama) sırasında otomatik olarak yakalanacak.

    • Daha önce Microsoft SQL Server'dan (MS-CDC) birde fazla işlem okurken Qlik Talend Data Integration yalnızca ilk işleme ait zaman damgasını ve işlem kimliğini koruyordu. Hedefte bu, kayıtlar tek bir işlemin parçasıymış gibi bir görünüm veriyordu. Artık Qlik Talend Data Integration, her bir kayıt için orijinal işlem kimliğini ve zaman damgasını koruyacak. Bu, Değişiklik tablolarında İşlem Kimliği ve Zaman Damgası başlık sütunlarından faydalanmak isteyen müşteriler için faydalıdır.

    • Daha önce işlem kimliğindeki baytlar ters sırayla kodlanıyordu. Bu sürümden itibaren baytlar doğru sırada kodlanacak. Mevcut davranışı korumayı tercih eden Bilgi Müşterileri bunu dahili parametreler kullanarak yapabilir. Ayrıntılar için lütfen Qlik Destek ekibiyle iletişime geçin.

  • Qlik Talend Data Integration artık şirket içinde veya bulutta MySQL kaynakları ya da hedefleri ile çalışırken SHA-2 çıkarılabilir kimlik doğrulamasını (caching_sha2_password) önbelleğe almayı destekliyor. Önceki sürümlerde yalnızca Yerel Çıkarılabilir Kimlik Doğrulaması (mysql_native_password) destekleniyordu.

  • BYTES ve BLOB veri türleri artık VARCHAR yerine Amazon Redshift'te VARBYTE ile eşlenecektir.

    • PostgreSQL 16.x

    • MySQL 8.1
    • z/OS için IBM DB2 3.1
    • PostgreSQL 16.x
    • MySQL 8.1
    • Databricks 14.3 LTS
    • SQL Server ODBC Sürücüsü 18.3

Aşağıdaki veritabanı sürümleri için destek kesilmiştir:

  • Oracle 19.x sürümünden eski tüm Oracle sürümleri ve sürücüleri
  • Microsoft SQL Server 2014
  • MySQL 5.7
  • PostgreSQL 11
  • LUW için IBM DB2 10.5
  • z/OS: z/OS 2.3 için IBM DB2
  • Yakalanan küme belgesi değişikliği, yakalanan tüm tablolarındaki satırların hepsini sildiğinde eksik DELETE işlemi ve gereksiz onay mesajları ile karşılaşılır.

  • Java için Microsoft Kimlik Doğrulama Kitaplığı (MSAL4J) ve Bouncy Castle, bilinen güvenlik açıkları olmayan sürümlere güncellendi.

    • Snowflake dahili depolamasını kullanırken görev bazen başarısız olur.
    • Hedef şema adı Japon Katakana olduğunda görev başarısız oluyordu.
  • Bir görevi Oracle kaynağıyla sürdürürken görev, uygun bir hatayla başarısız olmak yerine silinen bir Arşivlenen Yineleme Günlüğünü beklemeye devam ediyordu.

25 Ağustos 2025

2023.11.23

Standart

26 Haziran 2024
  • Bu sürümden itibaren (hazırlanmış dosyalar için) Snowflake meta veri şeması mevcut değilse oluşturulur.

  • Veri kümesini yeniden adlandır kuralında (tablo adını şema adıyla birleştiren) bir değişiklik yapıldıktan ve yerleştirme görevine bir Görünüm eklendikten sonra, Hazırla işlemi aşağıdaki hatayla başarısız oluyordu:

    QRI SQL error not implemented.

  • java_file_factory bileşenini bilinen güvenlik açığı olmayan bir sürüme güncelledik.
  • org.postgresql:postgresql bilinen herhangi bir güvenlik açığı içermeyen bir sürüme güncellendi.
  • SQL Server'a veri taşırken dizin adları 128 karakteri aştığında Hazırla işlemi başarısız oluyordu. Sorun, daha kısa dizin adları oluşturma mantığı değiştirilerek çözüldü.
  • SQL Server'dan veri taşırken tablo tanımlarındaki eksik bir sütun adı, repsrv.log dosyasında aşağıdaki mesajla sonsuz bir bildirim döngüsüne neden olacaktır:

    mssql_resolve_sqlserver_table_column_attributes(...) failed to find column

6 Şubat 2025

2023.11.11

Standart

21 Mayıs 2024
  • Birden fazla tablo için eş zamanlı olarak meta veri alma desteği eklendi.

  • Yerleştirme ve çoğaltma görevleri için izleme bilgileri (60 saniyede bir yerine) artık 10 saniyede bir güncellenerek görevlerin mevcut durumlarıyla ilgili daha hassas bir gösterge sağlatacak.

  • Japonya artık Qlik Cloud kiracı bölgesi olarak desteklenmektedir.

  • Veri ağ geçidi ile Qlik Cloud arasındaki yeniden deneme aralığı sürekli olarak artıyor, ancak hiçbir zaman sıfırlanmıyordu (hizmet yeniden başlatılmadığı sürece).
  • Bir SaaS uygulaması kaynağından veri taşırken tablolar bazen yeniden yükleme sırasında hata durumuna giriyordu.
  • MySQL kaynağı içeren görevler bazen CDC sırasında aşağıdaki hatayı vererek başarısız oluyordu:

    Read next binary log event failed; mariadb_rpl_fetch error 0 Error reading binary log.

  • Daha önce CDC denetim olayları yalnızca yerleştirme görevleri için günlüğe kaydediliyordu. Artık çoğaltma görevleri için de kaydedilecekler.
  • SQL Server'dan (MS-CDC) veri taşırken çok sayıda tablo içeren görevlerin başlaması bazen birkaç saat sürüyordu.
  • Kaynak tablosunda CLOB sütunları olduğunda ve "LOB boyutunu sınırlama" değeri 10240'ı aştığında Snowflake'e çoğaltma işlemi aşağıdaki hatayı vererek başarısız oluyordu:

    Invalid character length: 0

Sonraki büyük sürüm yayınlandığında belirlenir.
2023.11.4

Standart

12 Mart 2024

Müşteriler artık Veri Hareketi ağ geçidi uygulamasını Red Hat 9.x veya karşılık gelen ve uyumlu Linux dağıtımına yükleyebilir.

Veri Hareketi ağ geçidi ayarlama

Veri Hareketi ağ geçidi hizmetinin durumunu durdurma, başlatma ve kontrol etme komutları değişti.

Veri Hareketi ağ geçidi hizmet komutları

  • Amazon Redshift'te VARCHAR(1) ile eşlenen BOOLEAN veri türü artık BOOLEAN ile eşlenecektir.
  • Amazon Redshift'te VARCHAR(1) ile eşlenen BYTES ve BLOB veri türleri artık VARBINARY (uzunluk) ile eşlenecektir.

Bu bölümde, yeni desteklenen veritabanları, veritabanı sürümleri ve sürücü sürümleri listelenmektedir.

  • Yeni desteklenen veri kaynağı sürümleri ve yayımları

    Aşağıdaki veri kaynağı sürümleri artık desteklenmektedir:

    • Azure Database for MySQL - Flexible Server (MySQL kaynak bağlayıcısı üzerinden desteklenir)
    • MariaDB 10.4 - 10.11 (önceki 10.4 ve 10.5)
  • Yeni desteklenen hedef veri platformları ve yayımları

    Aşağıdaki veri hedefi sürümleri artık desteklenmektedir:

    • Azure Database for MySQL - Flexible Server (MySQL hedef bağlayıcısı üzerinden desteklenir)
    • Databricks: Databricks 13.3 LTS ve Serverless SQL Warehouse
  • Yeni desteklenen SAP HANA sürücü sürümü

    SAP HANA kaynağı olan ve Veri Hareketi ağ geçidi uygulamasını Red Hat Linux 9.x üzerine yüklemek isteyen müşteriler, SAP HANA ODBC 64 bit Sürücü Sürümü 2.0.19 veya daha yeni sürümlerini yüklemelidir.

Bu bölümde destek sonu veritabanı sürümleri hakkında bilgi verilmektedir.

  • Aşağıdaki veri kaynağı sürümleri için destek kesilmiştir:

    • Oracle 11.x
    • SAP HANA 1.0
  • Sunucu şifresi sağlamadan Veri Hareketi ağ geçidi yüklemek, kiracı ve proxy URL'lerinin bir komutta yapılandırılmasına izin vermeyecektir.
  • Bir Salesforce (SaaS uygulaması) veri kaynağından veri taşımak, çok sayıda gereksiz uyarı oluşturarak veri yükleme performansını olumsuz etkileyecektir.
  • Bir SaaS uygulaması veri kaynağı için değişiklikler alınırken tablolardan birine ilişkin değişiklikleri alma sırasında bir hata oluşursa ilgili tablo askıya alınıp işlem veri hattından kaldırılırdı. Artık bir hatayla karşılaşıldığında görev, tabloyu askıya almadan önce değişiklikleri almayı üç kez deneyecektir.
Sonraki büyük sürüm yayınlandığında belirlenir.
2023.5.16

Standart

9 Ocak 2024

Amazon S3'e ek olarak Qlik Cloud Data Integrarion'daki Replication projesinde desteklenen hedefleri genişletmeye devam ediyoruz. Artık Parquet, JSON veya CSV dosya formatlarında veri gölü teslimi için Azure Data Lake Storage (ADLS) ve Google Cloud Storage'ı (GCS) seçebilirsiniz.

  • LUW için IBM DB2 bağlantısında gereken dosyaların boyutu (SSL istemci sertifikası ve keystore dosyası gibi) 4 KB'ı geçerse bağlantı başarısız olur.

  • Sürücü yükleme yardımcı programı kullanılırken DB2 sürücü yüklemesi başarısız olur.

7 Eylül 2024

2023.5.15

Standart

12 Aralık 2023

Microsoft Fabric, veri işlem hattı projelerinde hedef olarak kullanılabilen veri depolarının sürekli uzayan listesine katılmıştır.

Sürücü yükleme yardımcı programındkai Snowflake sürücü sürümü güncellendi.

7 Eylül 2024

2023.5.10

Standart

31 Ekim 2023

A private connection cVeri trafiğinizin güvenli ve uyumlu kalmasını sağlamak için özel bir bağlantı kullanılabilir.an be used to ensure your data traffic remains secure and compliant. Gelen güvenlik duvarı bağlantı noktalarını, proxy cihazlarını veya yönlendirme tablolarını açmaya gerek kalmadan VPC'nizin (Sanal Özel Bulut) hem ağ yönetimini hem de güvenliğini basitleştirir. Qlik Cloud Veri Entegrasyonu; Snowflake, Microsoft SQL Server ve Amazon S3 veri hattı hedeflerine özel bağlantıları zaten desteklemektedir. Bu sürümle birlikte müşteriler, verileri Databricks, Microsoft Azure Synapse, Google BigQuery ve Amazon Redshift'e taşırken özel bağlantıları da kullanabilecek.

  • Tüm PostgreSQL tabanlı veri kaynakları - Çok aralıklı veri türü desteği: Aşağıdaki çok aralıklı veri türleri artık tüm PostgreSQL tabanlı veri kaynaklarında (şirket içi ve bulut) desteklenmektedir.

    • INT4MULTIRANGE
    • INT8MULTIRANGE
    • NUMMULTIRANGE
    • TSMULTIRANGE
  • PostgreSQL veri kaynağı için AWS Aurora Cloud - Süper kullanıcı olmayan rol desteği: PostgreSQL bağlayıcısında belirtilen kullanıcının, PostgreSQL için AWS Aurora Cloud veri kaynağından veri taşımak için artık süper kullanıcı rolüne sahip olması gerekmiyor. Bu, özellikle ayrıcalıklı olmayan kullanıcılara süper kullanıcı erişimi vermelerini engelleyen kurumsal güvenlik politikalarına sahip kuruluşlar için kullanışlıdır.

Microsoft Azure SQL (MS-CDC) veri kaynağından veri taşıyan müşteriler artık bir Coğrafi Çoğaltma veritabanı kullanabilir.

Qlik Cloud Veri Entegrasyonu artık CDC sırasında Oracle şifrelenmiş tablo alanlarından ve şifrelenmiş sütunlardan veri okumayı desteklemektedir.

Qlik Cloud Veri Entegrasyonu artık Almanya ve Birleşik Krallık bölgelerindeki kiracıları destekliyor.

Bu bölümde yeni desteklenen veritabanı ve sürücü sürümleri listelenmektedir.

  • Yeni desteklenen veri kaynağı sürümleri. Aşağıdaki veri kaynağı sürümleri artık desteklenmektedir:

    • Microsoft SQL Server 2022
    • Oracle 21c
    • PostgreSQL 15.x
    • DB2 13.1 (IBM DB2 for z/OS ile çalışırken)
    • iSeries 7.5 için IBM DB2
  • Yeni desteklenen hedef veri platformu sürümleri. Aşağıdaki veri hedefi sürümleri artık desteklenmektedir:

    • Databricks (Bulut Depolama): Databricks 12.2 LTS ve Databricks SQL Sunucusuz
  • Sürücü sürümleri. Aşağıdaki ODBC sürücü sürümleri artık desteklenmektedir:

    • IBM DB2 for z/OZ ve IBM DB2 for LUW için IBM Data Server Client 11.5.8
    • Google Cloud BigQuery için Simba ODBC sürücüsü 3.0.0.1001
    • MySQL ODBC Unicode Sürücüsü 64-bit 8.0.32

Verileri Microsoft SQL Server'a veya Microsoft SQL Server'dan taşıyan müşterilerin SQL Server ODBC sürücü sürümlerini 18.x veya daha yeni bir sürüme yükseltmeleri gerekir. SQL Server ODBC Driver 17.x'i kullanmaya devam etmek veri hatalarına neden olabilir. Sürücünün yükseltilmesi, sürücü yükleme yardımcı programı kullanılarak ya da manuel olarak yapılabilir. Talimatlar için Sürücü kurulumu bölümüne bakın.

Bu bölümde destek sonu veritabanı sürümleri hakkında bilgi verilmektedir.

  • Destek sonu veri kaynağı sürümleri. Aşağıdaki veri kaynağı sürümleri için destek kesilmiştir:

    • PostgreSQL 10
    • MySQL 5.6
    • MariaDB 10.3
  • Destek sonu hedef veri platformu sürümleri. Aşağıdaki veri hedefi sürümleri için destek sonlandırılmıştır:

    • Databricks 9.1 LTS

7 Eylül 2024

2022.11.74

Standart

15 Ağustos 2023

Hızlı inovasyon ve benimseme sağlayan bulut öncelikli bir yaklaşım benimsiyoruz. Ancak bu, yalnızca bulutta çalıştığımız sonucunu doğurmaz. As part of our continued commitment to improving the long-term value for our customers, we are pleased to announce the release of a new use case for Replication when creating data projects. Yeni Çoğaltma kullanım durumu, Veri Ambarı modernizasyonu gibi tüm veri entegrasyonu ihtiyaçlarınız için veri işlem hatları oluşturmaya yönelik mevcut yeteneğe ektir.

Çoğaltma projesi, desteklenen veri kaynaklarından desteklenen bir hedefe gerçek zamanlı veri çoğaltmayı destekler.

Bu son sürümden başlayarak, verilerin gerçek zamanlı olarak çoğaltılmasını destekleyen ilk hedef Microsoft SQL Server'dır. Şirket içi Microsoft SQL Server desteğine ek olarak, aşağıdaki bulut sağlayıcıları da desteklenmektedir:

  • Şirket içinde
  • Amazon RDS
  • Google Cloud
  • Microsoft Azure (Microsoft Azure Yönetilen Örneği ve Microsoft Azure Veritabanı)

Verileri Microsoft Azure Synapse Analytics'e taşıyan müşterilerin SQL Server ODBC sürücü sürümlerini 18.x veya daha yeni bir sürüme yükseltmeleri gerekir. SQL Server ODBC Driver 17.x'i kullanmaya devam etmek veri hatalarına neden olabilir. Sürücünün yükseltilmesi, sürücü yükleme yardımcı programı kullanılarak ya da manuel olarak yapılabilir. Talimatlar için Sürücü kurulumu bölümüne bakın.

Müşterilerin Tam Yükleme sırasında önbelleğe alınan verileri kullanmak yerine verilerini doğrudan kaynaktan okumalarına olanak tanıyan yeni bir Kaynaktan dosya yükle seçeneği sunuldu.

Kullanım durumları da dahil olmak üzere bu seçenek hakkında daha fazla bilgi için bk. Yerleştirme ayarları.

Veri Hareketi ağ geçidi 2022.11.74, Qlik Cloud kiracısının kimlik doğrulaması için gerekli olan güncellenmiş CA sertifikalarını içerir. Güncellenen CA sertifikaları İrlanda ve Frankfurt bölgeleri için de destek sağlamaktadır. Bu nedenle, İrlanda veya Frankfurt'ta Qlik Cloud kiracısı olan ve Qlik Cloud Veri Entegrasyonu'nu kullanmak isteyen müşteriler bu sürüme yükseltmelidir.

Oracle kaynağından veri alan görevler, geniş bir tablo kullanılmayan veya desteklenmeyen sütunlar ya da çoğaltılmayan LOB sütunları içerdiğinde bazen başarısız oluyordu.

31 Nisan 2024

2022.11.70

Standart

28 Haziran 2023

Önceki sürümlerde, müşterilerin SAP istemcilerini yüklerken "source arep_login.sh" komutunu çalıştırması gerekiyordu. Bu sürümden itibaren artık bu komutu çalıştırmaya gerek kalmıyor.

Bu sürüm, Qlik Cloud kiracısının kimlik doğrulaması için gerekli olan güncellenmiş CA sertifikalarını içerir.

  • Veri Hareketi ağ geçidi üzerindeki bir çoğaltma görevi başarısız olduğunda ve otomatik olarak kurtarıldığında, kurtarılan durum Qlik Cloud'daki Yerleştirme veri varlığına iletilmez.

  • Veri Hareketi ağ geçidi için uçtan uca şifreleme varsayılan olarak etkin değildi, ayrıca çalışma zamanı bayrakları tarafından kontrol edilirdi.
15 Eylül 2023

2022.11.63

Standart

2 Mayıs 2023

Bu sürüm, sürücüleri manuel olarak yükleme ve yapılandırma gereksinimini ortadan kaldıran bir sürücü yükleme yardımcı programı sunar. Yeni yardımcı program, kullanıcı hatası olasılığını büyük oranda azaltırken yükleme işlemini kısaltır. Yardımcı program çalıştırıldığında, gerekli sürücü otomatik olarak indirilir (mümkünse) ve yüklenir. Sürücü indirilemezse (ör. DB2 sürücüleri oturum açmayı gerektirir), yapmanız gereken tek şey sürücüyü yüklemek, Veri Hareketi ağ geçidi makinesindeki özel bir klasöre kopyalamak ve yardımcı programı çalıştırmaktır.

Bir PostgreSQL sürücüsünü yüklemek üzere sürücü yükleme yardımcı programını kullanmaya ilişkin bir örnek için bkz. Ön koşullar

Snowflake bağlayıcısı artık 4 bit emoji karakterlerini destekliyor.

PostgreSQL bağlayıcısı artık Azure Database for PostgreSQL - Flexible Server'dan verileri taşımayı destekleyebiliyor.

PostgreSQL bağlayıcısı artık PostgreSQL için Cloud SQL'den veri taşıyabilir.

Bu sürüm, aşağıdaki yeni veri kaynağı sürümleri için destek sunar:

  • PostgreSQL 14
  • DB2 (IBM DB2 for z/OS için) 12.1
  • IBM DB2 for z/OS 2.5

Databricks 11.3 LTS

Aşağıdaki veri kaynağı sürümleri artık desteklenmiyor:

  • DB2 (IBM DB2 for z/OS için) 11
  • PostgreSQL 9.6
  • Microsoft SQL Server 2012
  • MariaDB 10.2

Bu sürüm, aşağıdaki sorunları çözer:

  • Oracle veri kaynağı: Bir görevi durdurup devam ettirirken, görev bazen "Bağlamda klasör konumu ayarlanamadı" hatasıyla başarısız oluyordu.
  • SAP Uygulaması kaynağı: Değişiklikler, yerleştirme görevi sırasında yakalanamıyordu.

15 Eylül 2023

2022.5.13

Standart

19 Ekim 2022

İlk yayınlanma

2 August 2023

Veri Hareketi ağ geçidi kaldırma

Veri Hareketi ağ geçidi yüklemesini kaldırmak için şu komutu çalıştırın:

rpm -e <installation package name>

Örnek:

rpm -e qlik-data-gateway-data-movement-2023.11-1.x86_64

Paket adını bilmiyorsanız şunu çalıştırın:

rpm -qa | grep qlik

Uyarı notuVeri Hareketi ağ geçidi yüklemesini kaldırmak, şu anda veri ağ geçidini kullanan tüm görevlerin başarısız olmasına yol açacaktır.

Bu sayfa size yardımcı oldu mu?

Bu sayfa veya içeriği ile ilgili bir sorun; bir yazım hatası, eksik bir adım veya teknik bir hata bulursanız lütfen bize bildirin!