Yükseltme ve kaldırma: Veri Hareketi ağ geçidi | Qlik Cloud Yardımı
Ana içeriğe geç Tamamlayıcı içeriğe geç

Yükseltme ve kaldırma: Veri Hareketi ağ geçidi

Bu konu, Veri Hareketi ağ geçidi kurulumunuzu nasıl yükselteceğinizi veya kaldıracağınızı açıklar. Ayrıca her Veri Hareketi ağ geçidi sürümünde sunulan değişiklikleri listeleyen bir tablo sağlar.

Yükseltme prosedürü

Geçerli sürümünüzü doğrulamak için Yönetim > Veri ağ geçitleri bölümüne gidin ve Veri Hareketi ağ geçidi öğenize karşılık gelen Sürüm sütununu kontrol edin.

Yeni bir sürüm mevcutsa, sürüm numarasının sonuna ! eklenir. Daha fazla bilgi almak için Bilgi üzerine gelebilirsiniz.

Bilgi notuSürümler bazen yama olarak yayınlanır. ! işareti yalnızca yeni bir standart sürüm mevcutsa gösterilir (bir yama sürümünün aksine). Bir sürümün yama sürümü mü yoksa standart sürüm mü olduğunu öğrenmek için aşağıdaki Veri Hareketi ağ geçidi sürüm geçmişi tablosundaki Tür sütununa bakın.

Yüklü ağ geçidi sürümü desteklenmiyorsa, Durum Devre Dışı olur ve ağ geçidini etkinleştirmek için bir yükseltme gerekir.

Veri Hareketi ağ geçidi rpm'nin yeni bir sürümü kullanıma sunulduğunda, bunu Yönetim üzerinden indirmeli ve mevcut kurulumu yükseltmelisiniz.

Bunu yapmak için:

  1. Ağ geçidinde Daha fazla ve ardından Yükselt seçeneğine tıklayarak yeni sürümü indirin.

    Müşteri sözleşmesini onaylayın ve RPM'yi indirmeye devam edin.

  2. Bir kabuk istemi açın ve çalışma dizinini RPM dosyasını içeren dizinle değiştirin.
  3. Aşağıdaki komutu çalıştırın:

    Sözdizimi:

    rpm -U <rpm name>

    Örnek:

    sudo rpm -U qlik-data-gateway-data-movement.rpm

  4. Veri Hareketi ağ geçidi hizmetini başlatın:

    sudo systemctl start repagent

  5. İsteğe bağlı olarak, hizmetin başladığını doğrulayın:

    sudo systemctl status repagent

    Durum aşağıdaki gibi olmalıdır:

    Active: active (running) since <timestamp> ago

Veri Hareketi ağ geçidi sürüm geçmişi

Sürüm

Tür

Sürüm tarihi

Önemli değişiklikler

Destek sonu tarihi

2025.11.23 Standart 11 Mart 2026

Paralel Yükleme özelliği artık Databricks hedefini desteklemektedir.

Veri kümesi segmentlerini paralel olarak çoğaltma

attrep_ddl_history (DDL History) kontrol tablosu, hedef çoğaltma sırasında kaynakta meydana gelen DDL değişikliklerinin bir hikayesini içerir.

Aşağıdaki hedef uç noktaları artık desteklenmektedir:

  • Google BigQuery
  • Google Cloud Alloy DB for PostgreSQL
  • Google Cloud SQL for PostgreSQL
  • PostgreSQL (şirket içinde)

DDL geçmişi

Parquet biçimiyle Değişiklik Tabloları kullanılırken, [header]__change_mask başlık sütunu, baytları ters sırada depolama little endian kuralına uymak için artık sıfırları sola (sağa yerine) doldurur.

Etkilenen hedef uç noktalar:

  • Amazon S3

  • Google Cloud Storage

Değişiklik Tabloları

  • Kafka hedefi: 4.0.x

  • IBM z/OS kaynağı: 3.2

  • Microsoft ODBC Sürücüsü 18.5
  • MySQL 8.4

Microsoft tarafından resmi olarak kullanımdan kaldırılan Microsoft Azure Database for MySQL ve Microsoft Azure Database for PostgreSQL desteği sonlandırılmıştır.

  • Databricks hedefi: 10.4 LTS ve 11.3 LTS

  • MariaDB kaynak ve hedef: 10.5

  • PostgreSQL kaynak ve hedef: 13.x

  • MySQL kaynak ve hedef: 8.1

  • Microsoft ODBC Sürücüsü 18.3

Çözülen sorunlar

  • Kendi kendini işleyen olaylar oluşturan bir arka uç işlemiyle bir SAP (Application) kaynağı kullanacak şekilde yapılandırılan görevler, bazen bir tabloyu yeniden yükledikten sonra çöküyordu.

  • Homojen çoğaltmada, "İşlemsel uygulama" modunda veya bire bir moda geçen "Toplu İşlem İçin Optimize Edilmiş Uygulama" modunda çalışırken, hedefte bir DATETIME sütunu birincil anahtarın parçası olduğunda "0 satır etkilendi" hatası oluşuyordu.

  • Bir tablo uzun bir ham sütun içerdiğinde ve maksimum lob boyutu 64K'dan büyük veya buna eşit olduğunda Oracle Görevi Tam Yüklemede çöküyor.

  • Bir tablo yeniden yüklemesi sırasında, uzun süren SAP CDC işleri bazen iptal edilir. Bu, boşaltmanın hiçbir zaman tamamlanmadığı kurtarılabilir bir hata durumuyla sonuçlanıyordu.

  • Aşağıdaki bileşenler bilinen güvenlik açıkları nedeniyle yükseltildi:

    • JRE 17.0.17 sürümünden 17.0.18 sürümüne yükseltildi
    • org.eclispe.jetty:jetty-io 11.0.25 sürümünden 11.0.26 sürümüne yükseltildi

    • org.apache.logging.log4j:log4j-core 2.23.1 sürümünden 2.25.3 sürümüne yükseltildi

  • Bir tablo için bir filtre tanımlandığında CDC sırasında aşağıdaki hata oluşuyordu:

    Invalid value for parameter "I_DIMNAME"

  • Tablolardan biri Yükleniyor durumundayken görev durdurulur ve devam ettirilirse Delta çalışmayı durduruyordu.

    • Tam Yükleme sırasında, S3 hazırlama klasörüne bağlanırken görev bazen aşağıdaki hatayla başarısız oluyordu:

      Unable to execute HTTP request: Connect to s3.amazonaws.com:443

      Sorun, ilk bağlantı başarısız olduğunda S3 klasörüne bağlanmak için çoklu yeniden deneme mekanizması uygulanarak çözüldü.

    • Şema zaten mevcut olduğunda bile CREATE SCHEMA ayrıcalığı gerekiyordu.

  • Görev ayarlarında LOB boyutu sınırsız olarak ayarlandığında, LOB sütunlarında bazen veri kaybı oluşuyor ve CDC sırasında yanlış veri çoğaltması meydana geliyordu.

  • CSV dosyasının Net Değişiklikler tablosuna yüklenememesi, bire bir uygulamaya geçmek yerine kurtarılabilir bir hata (sonsuz bir döngüyle sonuçlanan) döndürüyordu.

  • Kaynak ve hedefin şeması aynı MySQL örneğinde olduğunda ve çoğaltma bir kontrol tablosu içerdiğinde, görev bazen "Process crashed with signal 11" hatasıyla çöküyordu.

  • CDC sırasında, görev bazen aynı WAL girişlerini tekrar tekrar okuyor ve bu da hiçbir verinin yakalanmamasına neden oluyordu.

    • Şifrelenmiş bloklar içeren bir işlem günlüğü açılırken bir hata oluşuyordu. Sorun, bu gibi durumlarda günlüğün sıkıştırılmış olarak bırakılmasıyla çözüldü.

    • Mevcut dosyalar için gereksiz bir doğrulama kontrolü nedeniyle, alternatif bir yedekleme klasörü kullanıldığında gereksiz hatalar gösteriliyordu.

    • Görev bazen DBCC Lookup çağrısından sonra çöküyordu.

2025.5.41 Yama 15 Şubat 2026 Monitörde CDC durumunun görüntülenmemesiyle ilgili bir sorun düzeltildi. 11 Eylül 2026
2025.5.40 Standart 10 Şubat 2026

Veri Hareketi ağ geçidi uygulamasının yeni sürümü, Kafka hedef bağlayıcısı için destek sunar. Verilerinizi desteklenen herhangi bir kaynaktan doğrudan şirket içi Kafka veya Amazon MSK'ya zahmetsizce çoğaltarak uygulamalarınızı çevik ve bilgili tutan güvenilir, hataya dayanıklı aktarımlar sağlayın. İster sistemler arasında veri tutarlılığını koruyor olun ister analizleri besliyor olun, bu bağlayıcı minimum kurulumla düşük gecikmeli çoğaltma sunar.

Daha fazla bilgi için bkz. Kafka Hedef

  • Bir veri kümesini bir MySQL şemasından aynı MySQL sunucusu örneğinde çalışan farklı bir MySQL şemasına çoğaltırken ve çoğaltmaya bir Kontrol tablosu dahil ederken, CDC aşağıdaki hatayla başarısız oluyordu:

    Process crashed with signal 11

  • Bir tablo hala tam yükte iken bir göreve devam edilmesi, çıkarma işinin başarısız olmasına ve tablonun askıya alınmasına neden oluyordu.

15 Ağustos 2026
2025.5.32 Yama 13 Ocak 2026
  • CSV dosyasının Qlik Net Değişiklikler tablosuna yüklenememesi, bire bir uygulamaya geçmek yerine kurtarılabilir bir hata (sonsuz bir döngüyle sonuçlanan) döndürüyordu.

  • Tam Yükleme sırasında, bağlantının Amazon tarafından aktif olarak reddedilmesi nedeniyle görevler bazen aşağıdaki hatayla başarısız oluyordu:

    Unable to execute HTTP request: Connect to s3.amazonaws.com:443

    Sorun, hata oluşmadan önce maksimum üç yeniden deneme içeren bir yeniden deneme mekanizması uygulanarak çözüldü.

  • Şifrelenmiş bloklar içeren bir işlem günlüğü açılırken bir hata oluşuyordu. Sorun, bu gibi durumlarda günlüğün sıkıştırılmış olarak bırakılmasıyla çözüldü.

  • Kaynağa bir değişiklik yaptıktan sonra bir CDC görevine devam ederken, görev bazen aşağıdaki hatayla başarısız oluyordu:

    Cannot change column title from type VARCHAR(8000) to VARCHAR(3) because reducing the byte-length of a varchar is not supported.

  • Mevcut dosyalar için gereksiz bir doğrulama kontrolü nedeniyle, alternatif bir yedekleme klasörü kullanıldığında gereksiz hatalar gösteriliyordu.

10 Ağustos 2026
2025.5.22 Standart 25 Kasım 2025

Bu sürümden itibaren, veri görevi hedef Databricks Delta tablolarında RELY anahtar sözcüğünü kullanarak bir birincil anahtar oluşturacaktır. Databricks birincil anahtar kısıtlamalarını uygulamazsa da RELY anahtar sözcüğüne sahip birincil anahtarların çoğaltma içermediği varsayılır ve bu nedenle Databricks tarafından sorgu optimizasyonu için kullanılabilir.

Gereksinimler:

  • Bağlayıcı ayarlarında bir Katalog seçmelisiniz.

  • Databricks 14.2 veya üzeri

  • IBM DB2 for iSeries kaynağı: Aşağıdaki veri türleri için destek eklenmiştir: BINARY-DECIMAL ve ZONED-DECIMAL

  • Databricks hedefi: Önceki sürümlerde BYTES, STRING ile eşlenmişti. Bu sürümden itibaren, VARCHAR (Bayt Cinsinden Uzunluk) ile eşlenecektir.

  • Google Cloud BigQuery hedefi: JSON alt türü artık Google Cloud BigQuery hedefi tarafından desteklenmektedir.

PostgreSQL tabanlı veri kaynaklarından bölümlerin ve alt bölümlerin (ve alt-alt bölümlerin) çoğaltılması (Tam Yükleme ve CDC) artık varsayılan olarak destekleniyor.

Google Cloud BigQuery hedefi artık veri kesme hatası işlemeyi destekliyor. Bir veri kesme hatası oluşursa kaydı istisnalar kontrol tablosuna kaydetmeyi (varsayılan), kaydı yok saymayı, tabloyu askıya almayı veya görevi durdurmayı seçebilirsiniz.

Aşağıdaki kaynak ve hedef uç noktası sürümleri artık desteklenmektedir:

  • MariaDB (şirket içi) ve Amazon RDS for MariaDB: 11.4

  • MySQL (şirket içi), MySQL Percona, Google Cloud SQL for MySQL, Amazon RDS for MySQL ve Microsoft Azure Database for MySQL - Flexible Server: 8.4

  • PostgreSQL (şirket içi), Google Cloud SQL for PostgreSQL, Amazon RDS for PostgreSQL ve Microsoft Azure Database for PostgreSQL - Flexible Server: 17.x

IBM Data Server Client 11.5.9 artık aşağıdaki DB2 kaynakları için desteklenmektedir:

  • IBM DB2 for LUW

  • IBM DB2 for z/OS

  • Kullanım ömrü sonu kaynakları ve hedefleri: Microsoft tarafından resmi olarak kullanımdan kaldırılan Microsoft Azure Database for MySQL ve Microsoft Azure Database for PostgreSQL desteği sonlandırılmıştır.

  • Kullanım ömrü sonu kaynak sürümleri: Kullanım ömrü sonu olan IBM DB2 for iSeries 7.2 desteği sonlandırılmıştır.

  • Kullanım ömrü sonu sürücü sürümleri: IBM Data Server Client 11.5.6 desteği sonlandırılmıştır.

Çözülen sorunlar

  • HSTS, Qlik Data Gateway - Veri Hareketi makinesinde etkinleştirilmemişti.

  • Veri Hareketi ağ geçidi uygulamasının Redhat Sürüm 9.7 üzerine kurulumu "OPENSSL_3.4.0 not found" hatasıyla başarısız oluyordu.

  • CDC sırasında, görev aynı WAL girişlerini okumaya ve aynı akış konumunu işlemeye devam ediyordu.

  • Bir CDC görevi değişiklikler sırasında durduktan sonra (örneğin bir bağlantı sorunu nedeniyle), göreve devam edilmesi bazen satır uzunluğu hatalarına neden oluyordu.

  • Önizleme veya Lite bağlayıcısı kullanan bir görevi çalıştırdıktan sonra kaynak bağlantı günlükleri kullanılamıyordu.

  • Bir Tam Yükleme ve CDC görevinin CDC aşamasında bir tablo askıya alındığında İzleyici sekmesi bir hata mesajı göstermiyordu.

13 Temmuz 2026
2024.11.95 Standart 4 Kasım 2025

Databricks üzerinde bilgi pazarları oluşturma desteği

Daha önce bilgi birikimi ambarları yalnızca Snowflake üzerinde destekleniyordu. Artık bilgi birikimi ambarlarını ve dosya tabanlı bilgi birikimi ambarlarını Databricks üzerinde de oluşturabilir ve çalıştırabilirsiniz.

Çözülen sorunlar:

Görevler hazırlık sırasında aralıklı olarak aşağıdaki hatayla başarısız oluyordu:

The request was canceled due to the configured HttpClient.Timeout of 300 seconds elapsing.

25 Mayıs 2026
2024.11.90 Standart 21 Ekim 2025

Çözülen sorunlar:

metadataschema Internal özelliği özel karakterlerle tanımlandığında, görev CDC sırasında başarısız oluyordu.

4 Mayıs 2026
2024.11.84 Yama 16 Eylül 2025

Çözülen sorunlar:

  • EU-Central-1 bölgesindeki müşteriler, Veri Hareketi ağ geçidi kullanırken sık sık üretim uyarıları alıyordu.

  • Jira'dan veri çoğaltılırken, diğer tablolar başarıyla yüklenirken USERS tablosu ilk çalıştırmada Kuyrukta durumunda takılı kalıyordu.

  • CDC izleme, görev monitöründe eksikti.

  • Oracle'dan Oracle'a çoğaltma görevleri, dize uzunluğunun yanlış hesaplanması nedeniyle bazen başarısız oluyordu.

  • Java sunucu bileşeni (sqlite-jdbc), önceki sürümlerdeki bilinen bir güvenlik açığı nedeniyle 3.47.0 sürümüne güncellendi.

  • Bir görev daha önce başlatılmadan ilk kez devam etme modunda başlatıldığında bazen "No license for database" hatası oluşuyordu.

  • Salesforce veri kaynağına sahip bir yerleştirme görevine yeni veri kümeleri eklemek, görevin "'Table doesn't exist'" hatasıyla başarısız olmasına neden oluyordu.

21 Nisan 2026
2024.11.78 Standart 3 Eylül 2025
Uyarı notu

Snowflake hedefi kullanan müşteriler, Veri Hareketi ağ geçidi yükseltmesi tamamlandıktan sonra Snowflake sürücülerini yükseltmelidir. Aksi takdirde görevler başarısız olur.

Talimatlar için bkz. Sürücü kurulumu

  • Depolama görevleri, ağ geçidinin yeniden başlatılmasını gerektiren bir bağlantı hatasıyla başarısız oluyordu.

  • /tmp klasörüne erişim kısıtlandığında DB2 sürücü kurulumu başarısız oluyordu.

  • Veri Hareketi ağ geçidi 2024.11.65 sürümüne yükselttikten sonra, Qlik Cloud bağlantısı aşırı miktarda zaman alıyordu. Sorun, iki dakikalık zaman aşımına sahip bir iptal belirteci eklenerek çözüldü.

  • Veri Hareketi ağ geçidi 2024.11.67 sürümüne yükselttikten sonra, /tmp klasöründeki erişim kısıtlamaları nedeniyle external-data-provider hizmeti (Lite bağlayıcıları tarafından kullanılır) çöktü.

  • Aşağıdaki bileşenler bilinen güvenlik açıkları nedeniyle daha yeni sürümlerle değiştirildi:

    • SQLite 3.49.1

    • Java Runtime Engine 17.0.15

    • org.bouncycastle:bcpkix-fips 2.0.7 (bcpkix-fips-2.0.7.jar)

    • org.bouncycastle:bc-fips 2.0.0 (bc-fips-2.0.0.jar)

  • SMB'ye bağlanma aşağıdaki hatayla başarısız oluyordu:

    SmbConnection' object has no attribute 'docs_path'

  • Bir görevi ikinci kez hazırlarken ve ilk hazırlıktan sonra bir DDL oluştuğunda, hazırlama işlemi bazen aşağıdaki hatayla başarısız oluyordu (alıntı):

    Could not find match between landing metadata with gateway task metadata for the following tables: <name>

  • Bir Microsoft SQL Server hedefi kullanıldığında veri önizleme seçeneği çalışmıyordu.

  • Bu sürüm, Veri Hareketi ağ geçidi uygulamasının Qlik Cloud Government DoD ile kullanılması için destek ekler.

16 Mart 2026
2024.11.70 Standart 12 Ağustos 2025
  • Çoğaltma ve yerleştirme görevleri için tablo hata işleme ayarlarına yeni bir Bir tablo hatası döndürmeden önceki yeniden deneme sayısı ayarı eklendi. Önceden, bir tablo hatası oluştuğunda tablo askıya alınıyor veya görev durduruluyordu (seçilen hata işleme eylemine göre). Bu bazen SaaS uygulaması bakım penceresi sırasında tabloların askıya alınmasına neden oluyordu. Bu yeni seçenekle, tablo hata işleme ilkesi tetiklenmeden önce tablonun kaç kez yeniden denenmesi gerektiğini belirlemek artık mümkündür. Bu seçenek, SaaS uygulamanız periyodik bakımdan geçiyorsa özellikle yararlıdır, çünkü bakımın tablo hata işleme ilkesini tetiklemeden tamamlanabilmesi için varsayılan yeniden deneme sayısını (3) geçersiz kılabilirsiniz.

    Tablo hata işleme

    Bilgi notuBu seçenek yalnızca bir Lite veya Standart SaaS uygulama bağlayıcısı ile yapılandırılmış görevler için gösterilecektir.
  • Bir SQL dönüşümünü önizlerken, sonuçlar artık sütun veri türlerini içerecektir.

    Verileri önizleme

3 Mart 2026
2024.11.67 Standart 29 Temmuz 2025
  • Ağ geçidi makinesindeki çoğaltma günlük dosyaları için bir devretme ve temizleme ilkesi uygulandı. Devretme ilkesi, günlük dosyalarının çok büyümesini (bu durum performansı ve analizi etkiler) önlerken, temizleme ilkesi bunların birikmesini ve aşırı disk alanı tüketmesini önleyecektir.

  • Askıya alınmış bir tabloyu yeniden yüklerken, monitörde gösterilen tablo durumu bazen yanlış oluyordu.

  • Bir veri kümesi ekledikten sonra bir yerleştirme görevini hazırlarken, varlıkları kataloglama aşamasında bazen bir zaman aşımı oluşuyordu. Bu, Hazırlama işleminin başarısız olmasına neden oluyordu.

12 Şubat 2026
2024.11.65 Yama 22 Temmuz 2025

Bu yama aşağıdaki sorunları çözer:

  • Bir çoğaltma görevine yeni bir tablo eklerken ve Hazırla seçeneğine tıklarken bazen aşağıdaki hata oluşuyordu:

    Prepare data task failed: Object reference not set to an instance of an object.

  • Aşağıdaki Veri Hareketi ağ geçidi kurulum dosyaları bilinen güvenlik açıkları olmayan sürümlere güncellendi:

    • java

    • jetty-io-<version>.jar

    • jetty-http-<version>.jar

    • spring-expression-<version>.jar

    • spring-core-<version>.jar

    • spring-context-<version>.jar

29 Ocak 2026
2024.11.61 Yama 15 Temmuz 2025 Python 3.12 yüklü bir makineye ai-local-agent (vektör veritabanı ve LLM bağlantısı için gereklidir) yüklenmesi başarısız oluyordu. Bu yama sorunu çözer. 22 Ocak 2026
2024.11.59 Yama 1 Temmuz 2025

Bu yama aşağıdaki sorunları çözer:

  • Veri Hareketi ağ geçidi 2024.11.54 sürümüne yükselttikten sonra veritabanına bağlanma başarısız oluyordu.

  • Görev bir SaaS uygulama kaynağı ve bir Google BigQuery hedefi ile yapılandırıldığında veri görevini hazırlama başarısız oluyordu.

  • Java tabanlı veri kaynaklarına sahip görevler, Veri Hareketi ağ geçidi 2024.11.54 sürümüne yükselttikten sonra başarısız oluyordu.

  • CDC sırasında, bir kaynak tablodaki bir STRING sütunu 65536 baytı aştığında, veriler hedef STRING sütununda kesiliyordu. Görev daha sonra "bire bir" uygulama moduna geçiyordu.

  • java_file_factory.jar ve arep-google-cloud.jar dosyaları bilinen güvenlik açıkları olmayan sürümlere yükseltildi.

15 Ocak 2026
2024.11.54 Yama 17 Haziran 2025

Bu yama aşağıdaki sorunları çözer:

  • Tam yükleme sırasında, görev Hedef tablo zaten varsa: Yoksay ile yapılandırılmış olmasına rağmen hedef tabloları bırakıyor ve yeniden oluşturuyordu

  • Çoğaltma modu tam yükleme ve değişiklikleri uygulama olarak ayarlanmış mevcut bir çoğaltma görevini durdurup hazırladıktan sonra, CDC işlenen kayıt sayısı artıyor ve bu da yanlış bir sayımla sonuçlanıyordu.

  • Mevcut bir göreve yeni bir veri kümesi eklendiğinde, görev aşağıdaki hatayla başarısız oluyordu:

    Could not find a match between landing metadata and gateway task metadata for the following tables: <name>

  • SAP ve SQL tabanlı kaynaklara bağlantı testi başarısız oluyordu.

  • Ağ geçidini yükselttikten sonra, görevler bazen beklendiği gibi devam etmiyordu.

1 Ocak 2026
2024.11.45 Standart 20 Mayıs 2025

Snowpipe Streaming desteği

Önceden, Snowflake'e veri yüklemek için kullanılabilen tek yöntem Toplu yükleme idi. Artık müşteriler, verilerini Snowflake'e aktarmak veya çoğaltmak için Toplu yükleme'yi ya da Snowpipe Akışı'nı kullanabilir.

Snowpipe Akışı'nın Toplu yükleme'ye göre avantajları şunlardır:

  • Daha az maliyetli: Snowpipe Akışı, Snowflake deposunu kullanmadığından, işletim maliyetleri önemli ölçüde daha ucuz olmalıdır, ancak bu sizin özel kullanım durumunuza bağlı olacaktır.
  • Daha az gecikme süresi: Veriler doğrudan hedef tablolara aktarıldığından (hazırlama yerine), veri kaynağından hedefe çoğaltma daha hızlı olmalıdır.

Çözülen sorunlar

Bu yama aşağıdaki sorunları çözer:

  • Microsoft Fabric bağlayıcısını kullanarak veritabanlarına göz atarken aşağıdaki hata oluşuyordu (alıntı):

    Create connection failed'' with error 'java.lang.NoSuchMethodError

    Sorun, sürücü kurulum yardımcı programıyla yüklenen 12.9.0-preview.jar JDBC sürücüsüyle olan bir uyumsuzluktan kaynaklanıyordu. Yardımcı program artık uyumlu bir sürücü yükleyecek şekilde güncellendi.

  • Veri Hareketi ağ geçidi yükseltildikten veya Veri Hareketi ağ geçidi hizmeti yeniden başlatıldıktan sonra, Java sunucusu (SAP ODP gibi Java tabanlı bağlayıcılar için gereklidir) başlatılamıyordu.

    • Qlik Cloud Yönetim etkinlik merkezinden müşteri tarafından barındırılan günlükleri döndüren günlük kaydı komut yükleri için uçtan uca şifreleme karşılıklı olarak zorunlu kılınmıyordu.

    • Veri Hareketi ağ geçidi tarafından kullanılan SQLite sürümü, 3.42.0 sürümündeki bir güvenlik açığı nedeniyle yükseltildi (CVE-2023-7104).

    • Veri Hareketi ağ geçidi tarafından kullanılan com.h2database dosyası, h2-2.1.212 sürümündeki bir güvenlik açığı nedeniyle yükseltildi (CVE-2022-45868).

17 Aralık 2025
2024.11.34 Yama 1 Nisan 2025

Bu yama, bir IBM DB2 for iSeries veri kaynağından veri taşırken oluşan aşağıdaki sorunu çözer:

iSeries Access ODBC Sürücüsü 07.01.026 veya daha yeni bir sürüm kullanıldığında, görev CDC sırasında "Error parsing" hatasıyla başarısız oluyordu.

20 Kasım 2025
2024.11.30

Standart

18 Mart 2025

Müşteriler artık Databricks'in hesap kimlik doğrulaması için önerdiği yöntem olan OAuth kimlik doğrulamasını kullanarak Databricks hedefine bağlanabilirler. Kişisel Erişim Belirteci kimlik doğrulaması şimdilik geriye dönük uyumluluk için kullanılabilir durumda kalacaktır, ancak OAuth'tan daha az güvenli olduğu düşünülmektedir.

  • Bir veri kümesi paralel yükleme ile tanımlandığında ve ardından tam yükleme devre dışı bırakıldığında, görev zaman damgasından devam ettirildiğinde bile o veri kümesinin tam yüklemesini gerçekleştirmeye devam ediyordu.

1 Ekim 2025

2024.11.24

Yama

11 Mart 2025

Bu yama aşağıdaki sorunları çözer:

  • Adında nokta bulunan tablolar için (ör. Deprec.Area) meta veri oluşturma işlemi tamamlanamıyordu.

  • Görevler, çevresel bir sorun nedeniyle tam yükleme sırasında başarısız olurlarsa yalnızca bir kez kurtarılıyordu. Artık Ayarlar > Hata işleme > Çevresel hatalar > Maksimum yeniden deneme sayısı bölümünde yapılandırılan sayı kadar kurtarılacaklar.

18 Eylül 2025
2024.11.14 Standart 25 Şubat 2025

Geliştirmeler

PostgreSQL yük devretme sertifikası

Yük devretmeden sonra ikincil bir veritabanı ile çalışmak aşağıdaki veri kaynakları ile onaylanmıştır (hepsine PostgreSQL kaynak bağlayıcısı kullanılarak erişilebilir):

  • Google Cloud SQL for PostgreSQL
  • Amazon RDS for PostgreSQL
  • PostgreSQL (şirket içinde)

Ayrıca bkz: Yük devretmeyi ayarlama

MySQL performans iyileştirmesi

Önceki sürümlerde, sınırlı LOB boyutu ile yapılandırılmış bir görevde MySQL tabanlı bir kaynak uç noktası kullanıldığında Veri Hareketi ağ geçidi, LOB sütunlarını okumak için kaynak aramayı kullanıyordu. Şimdi Veri Hareketi ağ geçidi, LOB sütunlarını doğrudan binlog'dan okuyacak ve böylece performansı artıracaktır.

Bilgi notuBu iyileştirme JSON veri türü için geçerli değildir.

Veri türü eşlemesindeki değişiklikler

Amazon Redshift ve Snowflake hedefi için LOB sütunlarına eşlemeler değiştirildi.

  • BLOB artık VARBYTE(16777216) ile eşlenmiştir
  • NCLOB artık NVARCHAR(65535) ile eşlenmiştir
  • CLOB artık NVARCHAR(65535) ile eşlenmiştir
  • BLOB artık BINARY (8388608) ile eşlenmiştir
  • NCLOB artık NVARCHAR(16777216) ile eşlenmiştir
  • CLOB artık VARCHAR(16777216) ile eşlenmiştir

Yeni desteklenen veri türleri

  • Artık BOOLEAN veri türünü desteklemektedir (LUW için DB2 11.5 sürümünden itibaren).

  • Artık BIGNUMERIC veri türünü desteklemektedir.

DDL Geçmiş kontrol tablosu için genişletilmiş hedef desteği

Önceki Veri Hareketi ağ geçidi sürümlerinde DDL Geçmişi kontrol tablosu yalnızca Databricks ve Microsoft Fabric hedefleriyle destekleniyordu. Bu sürüm aşağıdaki ek hedef bağlayıcıları için destek sunar:

  • Amazon Redshift
  • Amazon S3
  • Google Cloud Storage
  • Snowflake

Ayrıca bakınız: DDL geçmişi

PostgreSQL için Google Cloud SQL ile süper kullanıcı olmayan bir kullanıcı kullanma desteği

Bu sürümden itibaren, PostgreSQL için Google Cloud SQL'den çoğaltma yaparken artık süper kullanıcı olmayan bir hesap belirtmek mümkündür

Ayrıca bkz: Süper kullanıcı rolü olmadan bir hesabı kullanma

Yeni onaylanan platformlar ve sürücü sürümleri

  • 15.4 LTS

  • 23ai

    Bilgi notu
    • Oracle 23ai kaynağı ve hedefi yalnızca Oracle Standard Edition ile onaylanmıştır.
    • Oracle 23ai kaynağı yalnızca TDE şifrelemesi ile desteklenir.
  • Verileri Databricks'e taşırken artık Simba Spark ODBC Driver 2.8.2 veya sonraki sürümü gereklidir. Müşteriler ya sürücü yükleme yardımcı programını çalıştırmalı ya da sürücüyü manuel olarak yüklemelidir.

    Ayrıca bkz.: Sürücü kurulumu

Destek sonu

Aşağıdaki veritabanı sürümleri için destek kesilmiştir:

  • PostgreSQL 12.x
  • z/OS için IBM DB2: z/OS 2.4
  • Databricks 9.1

Çözülen sorunlar

  • Çoğaltma modu Değişiklikleri Sakla olarak ayarlandığında ve tablo bir .INCLUDE sütunu içerdiğinde görev, hedefte __CT tablosunu oluşturmada başarısız oluyordu.

  • Azure Data Lake Storage parola anahtarının süresi dolduğunda görev başarısız olur ve "Veritabanı için lisans yok" hatası gösterilir.

  • Yeni bir görev çalıştırıldığında eski dosyalar silinmez. Bu, görevin yinelenen kayıtlar veya eşleşmeyen kayıtlar nedeniyle başarısız olmasına neden olabilir.

     

  • Çoğaltma için kullanıcı tanımlı bir tablo seçerken "özellik desteklenmiyor: kullanıcı tanımlı tür seçilemiyor" hatası oluşuyordu. Sorun, kullanıcı tanımlı tabloların (desteklenmeyen) tablo seçiciden hariç tutulmasıyla giderildi.

  • CDC sırasında oluşan bir bağlantı hatasından kurtulduktan sonra bazen "Dönüştürme başarısız oldu" hatası oluşabiliyordu.

  • LOB desteği devre dışı bırakıldığında, CDC değişikliği __ct tablosuna eklemeye çalışırken "yeterli veri sütunu yok" hatası veriyordu. Bu hata, yerleştirme görevleri için kullanılabilen tek mod olan "Değişiklikleri Sakla" modunda çalışırken ortaya çıkıyordu.

  • CDC sırasında, mediumtext veri türüne sahip bir "NOT NULL" sütunu çoğaltılırken görev bazen aşağıdaki hatayla başarısız oluyordu:

    A NOT NULL constraint violation occurred on LOB column from MySQL source

  • Bir VARCHAR sütunu eklenirken aşağıdaki kesme hatası oluşuyordu:

    String or binary data would be truncated while reading column of type 'VARCHAR'

    Sorun, Microsoft Fabric'te VARCHAR sütunu çarpılarak çözüldü.

11 Eylül 2025
2024.5.54 Standart 21 Ocak 2025

Snowflake hedef bağlayıcısına ek ODBC ve JDBC bağlantı özellikleri belirleme desteği eklendi.

Daha fazla bilgi için bkz. Ek bağlantı özellikleri.

  • Kaynakta bir birincil anahtar değiştirildiğinde, yeniden yüklemeden sonra hedef meta verileri güncellenmiyordu.

  • Yeni bir görev oluşturup çalıştırırken, önceki görevlerden kalan dosyalar tabloların konumundan silinmiyordu.

  • Günlük tabanlı CDC kullanarak bir SAP HANA kaynağına bağlanmaya çalışmak aşağıdaki hatayla sonuçlanıyordu:

    Cannot select user-defined type

25 Ağustos 2025

2024.5.41

Yama

19 Aralık 2024

Bu yama aşağıdaki sorunları çözer:

  • Boş dizeler, NULL değerlerinden ayırt edilmeleri için artık CSV dosyasında tırnak içine alınacaktır.

  • Belirli senaryolarda kaynak ve hedef veriler arasında bir uyuşmazlık oluşuyordu.

  • Yerleştirme görevinde LOB desteğini devre dışı bırakmak, CDC'nin aşağıdaki hatayla başarısız olmasına neden oluyordu (alıntı):

    Cannot write to '<name>__ct', not enough data columns

  • Bir bağlantı hatasından kurtulduktan sonra hedefe değişiklikleri uygulamak bazen "Conversion failed" hatasıyla başarısız oluyordu.

21 Temmuz 2025

2024.5.35

Yama

10 Aralık 2024

Bu yama aşağıdaki sorunları çözer:

  • Bir depolama görevi sırasında, NVARCHAR(3500) veri türü VARCHAR(8000) (izin verilen maksimum) yerine yanlışlıkla VARCHAR(10500) olarak dönüştürülüyor ve bu da bir hatayla sonuçlanıyordu.

  • Kaynak tablo 941 kod sayfasıyla (Japonca) bir GRAPHIC veri türü içerdiğinde aşağıdaki hata oluşuyordu (alıntı):

    Unexpected CCSID '941' in column 'PNTNM'

19 Haziran 2025

2024.5.32

Yama

26 Kasım 2024

Workday Reports kaynak bağlayıcısında kullanıcı adını ve parolayı güncelledikten ve ardından görevi yeniden yükledikten sonra, kimlik bilgileri doğru olmasına rağmen "Invalid username or password" hatası oluşuyordu. Bu sorun artık çözüldü.

10 Haziran 2025

2024.5.31

Yama

19 Kasım 2024

Bu yama aşağıdaki sorunları çözer:

Veri Hareketi ağ geçidi ile birlikte gelen Oracle Java Standard Edition 17.0.8'in bilinen birkaç güvenlik açığı vardır. Bu yama 17.0.8'i 17.0.12 ile değiştirerek sorunları çözer.

CDC sırasında, her değişiklik için ilişkili _ct tablosuna (yalnızca bir tane yerine) birden fazla INSERT işlemi ekleniyordu. Bu, _ct tablosundaki kayıt sayısını önemli ölçüde artırıyordu.

26 Mayıs 2025

2024.5.28

Standart

12 Kasım 2024 Yakında yayınlanacak olan Şema Gelişimi özelliği için gereken işlevselliği sağlar.

19 Mayıs 2025

2024.5.27

Yama

5 Kasım 2024

Bu yama aşağıdaki sorunları çözer:

14 Ağustos 2024'te Snowflake, bazıları Veri Hareketi ağ geçidi uygulamasının önceki sürümleriyle kullanılan Snowflake JDBC sürücüleri >= 3.2.6 ve <= 3.19.1 hakkında bir güvenlik uyarısı yayınladı. Güvenlik açığı, artık sürücü kurulum yardımcı programıyla yüklenen sürüm olan Snowflake JDBC Sürücüsü 3.20'de yamalandı. Mevcut müşteriler, Driver setup bölümünde açıklanan Sürücüyü güncelleme prosedürünü izleyerek sürücülerini en kısa fırsatta yükseltmelidir.

  • Yineleme olayı 11.22 kullanıldığında, INSERT'lerden önce sıkıştırılmamış sıkıştırılmış bir sayfada birden fazla INSERT işlenirken eksik INSERT'ler oluşuyordu.
  • Nadir senaryolarda, yineleme günlüğü kaydındaki DELETE olaylarının yanlış ayrıştırılması, "The Redo Log DELETE event contains an unknown structure" uyarısı ve ardından çeşitli sorunlar oluşturuyordu.

YAML dosyasındaki talimatlar, SAP Java Bağlayıcısının doğru sürümünü yansıtacak şekilde güncellendi.

Bir proxy üzerinden Snowflake hedefine bağlanmak için Veri Hareketi ağ geçidi kullanıldığında, bağlantı aşağıdaki hatayla başarısız oluyordu:

500 Failed to connect to Data Movement Gateway

12 Mayıs 2025

2024.5.22

Yama

15 Ekim 2024 Bu yama, bir Tam Yükleme + CDC çoğaltma görevinde, CDC görevi için Veri görevi şuna güncellendi alanının CDC zaman damgası/damgaları yerine Tam Yükleme zaman damgasını göstermesi sorununu çözer.

5 Mayıs 2025

2024.5.16

Yama

8 Ekim 2024
    • Redo olayı 11.22 kullanılırken birden fazla INSERT işleminde bazen eksik INSERT'ler oluşabiliyordu.
    • Oracle 19g'yi Temmuz 2024 düzeltmesine yükselttikten sonra, UPDATE işlemleri bazen yakalanamıyor ve aşağıdaki uyarı gösteriliyordu:

      A compressed row cannot be parsed

  • Görev ayarları, kontrol tablosu şemasını oluşturacak şekilde yapılandırıldığında, görev aşağıdaki hatayla başarısız oluyordu:

    Failed to delete directory

  • Bir görev periyodik olarak çalışacak şekilde zamanlandığında bazen başarısız oluyor ve aşağıdaki hatayı veriyordu:

    The task stopped abnormally

  • Dönüşüm ve depolama görevleri bazen aşırı uzun süre Kuyruğa alındı durumunda kalabiliyordu.

  • Değişiklikleri Sakla çoğaltması ile use_manipulation_pk_for_apply özellik bayrağı kullanıldığında görevler başarısız oluyordu.

  • Dosyaları indirmek için belirteci kaybetmek gibi uzun süreli zaman aşımlarından kaynaklanan sorunları önlemek için S3 zaman aşımı 6 saate çıkarıldı.

15 Nisan 2025

2024.5.14

Standart

11 Eylül 2024
  • Anahtar/çift, hizmet hesaplarınızla Snowflake'e bağlanmak için kullanıcıdan/paroladan daha sağlam bir kimlik doğrulama yöntemi sağlar. Bu yaklaşım, veri yükleme (çoğaltma veya yerleştirme görevleri) ve dönüşümler gibi iş yükleri için önerilir.

  • Önceki sürümlerde, mevcut bir veri kümesindeki veya yeni eklenen bir veri kümesindeki meta verileri yenilemek bazen başarısız oluyor ve bir hata veriyordu. Bu geliştirme, meta verilerin birden fazla tablodan herhangi bir sorun olmadan paralel olarak alınabilmesini sağlar.

  • Bir kaynak tablo DECIMAL veri türüne sahip örneğin, DECIMAL (38, 20) gibi bir sütun içerdiğinde, Google BigQuery'de depolama görevini hazırlamak başarısız oluyor ve aşağıdaki hata veriliyordu (alıntı):

    Column <n> in <table name> has incompatible types: STRING, BIGNUMERIC at [93:1]

    Sorun, Google BigQuery'de kaynak DECIMAL veri türü DECIMAL ile eşlenerek çözüldü.

  • Bir veri görevinde mevcut bir şema kuralında değişiklik yaptıktan sonra aşağıdaki hata meydana gelir:

    QRI SQL error not implemented

  • Bir SAP Uygulama kaynağına bağlanan bir yerleştirme görevi hazırlanırken, görev başarıyla tamamlanır, ancak repsrv.log günlük dosyasında aşağıdaki hata rapor edilir:

    Invalid object name 'hk1./QTQVC/QRI'

8 Nisan 2025

2024.5.7

Standart

6 Ağustos 2024
  • Daha önce bir meta veri değişikliği gerçekleştiğinde meta veri değişikliği tüm tabloları etkilemese bile tüm tablolar kullanımdan kaldırılıp yeniden oluşturuluyordu. Artık yalnızca etkilenen tablolar kullanımdan kaldırılacak ve yeniden oluşturulacak, bu sayede performans artırılacak.

  • Desen ekle ile eşleşen çoğaltma veri görevi sırasında kaynak veritabanında oluşturulan tablolar artık CDC (Değişiklik verisi yakalama) sırasında otomatik olarak yakalanacak.

    • Daha önce Microsoft SQL Server'dan (MS-CDC) birde fazla işlem okurken Qlik Talend Data Integration yalnızca ilk işleme ait zaman damgasını ve işlem kimliğini koruyordu. Hedefte bu, kayıtlar tek bir işlemin parçasıymış gibi bir görünüm veriyordu. Artık Qlik Talend Data Integration, her bir kayıt için orijinal işlem kimliğini ve zaman damgasını koruyacak. Bu, Değişiklik tablolarında İşlem Kimliği ve Zaman Damgası başlık sütunlarından faydalanmak isteyen müşteriler için faydalıdır.

    • Daha önce işlem kimliğindeki baytlar ters sırayla kodlanıyordu. Bu sürümden itibaren baytlar doğru sırada kodlanacak. Mevcut davranışı korumayı tercih eden Bilgi Müşterileri bunu dahili parametreler kullanarak yapabilir. Ayrıntılar için lütfen Qlik Destek ekibiyle iletişime geçin.

  • Qlik Talend Data Integration artık şirket içinde veya bulutta MySQL kaynakları ya da hedefleri ile çalışırken SHA-2 çıkarılabilir kimlik doğrulamasını (caching_sha2_password) önbelleğe almayı destekliyor. Önceki sürümlerde yalnızca Yerel Çıkarılabilir Kimlik Doğrulaması (mysql_native_password) destekleniyordu.

  • BYTES ve BLOB veri türleri artık VARCHAR yerine Amazon Redshift'te VARBYTE ile eşlenecektir.

    • PostgreSQL 16.x

    • MySQL 8.1
    • z/OS için IBM DB2 3.1
    • PostgreSQL 16.x
    • MySQL 8.1
    • Databricks 14.3 LTS
    • SQL Server ODBC Sürücüsü 18.3

Aşağıdaki veritabanı sürümleri için destek kesilmiştir:

  • Oracle 19.x sürümünden eski tüm Oracle sürümleri ve sürücüleri
  • Microsoft SQL Server 2014
  • MySQL 5.7
  • PostgreSQL 11
  • LUW için IBM DB2 10.5
  • z/OS: z/OS 2.3 için IBM DB2
  • Yakalanan küme belgesi değişikliği, yakalanan tüm tablolarındaki satırların hepsini sildiğinde eksik DELETE işlemi ve gereksiz onay mesajları ile karşılaşılır.

  • Java için Microsoft Kimlik Doğrulama Kitaplığı (MSAL4J) ve Bouncy Castle, bilinen güvenlik açıkları olmayan sürümlere güncellendi.

    • Snowflake dahili depolamasını kullanırken görev bazen başarısız olur.
    • Hedef şema adı Japon Katakana olduğunda görev başarısız oluyordu.
  • Bir görevi Oracle kaynağıyla sürdürürken görev, uygun bir hatayla başarısız olmak yerine silinen bir Arşivlenen Yineleme Günlüğünü beklemeye devam ediyordu.

11 Mart 2025

2023.11.23

Standart

26 Haziran 2024
  • Bu sürümden itibaren (hazırlanmış dosyalar için) Snowflake meta veri şeması mevcut değilse oluşturulur.

  • Veri kümesini yeniden adlandır kuralında (tablo adını şema adıyla birleştiren) bir değişiklik yapıldıktan ve yerleştirme görevine bir Görünüm eklendikten sonra, Hazırla işlemi aşağıdaki hatayla başarısız oluyordu:

    QRI SQL error not implemented.

  • java_file_factory bileşenini bilinen güvenlik açığı olmayan bir sürüme güncelledik.
  • org.postgresql:postgresql bilinen herhangi bir güvenlik açığı içermeyen bir sürüme güncellendi.
  • SQL Server'a veri taşırken dizin adları 128 karakteri aştığında Hazırla işlemi başarısız oluyordu. Sorun, daha kısa dizin adları oluşturma mantığı değiştirilerek çözüldü.
  • SQL Server'dan veri taşırken tablo tanımlarındaki eksik bir sütun adı, repsrv.log dosyasında aşağıdaki mesajla sonsuz bir bildirim döngüsüne neden olacaktır:

    mssql_resolve_sqlserver_table_column_attributes(...) failed to find column

6 Şubat 2025

2023.11.11

Standart

21 Mayıs 2024
  • Birden fazla tablo için eş zamanlı olarak meta veri alma desteği eklendi.

  • Yerleştirme ve çoğaltma görevleri için izleme bilgileri (60 saniyede bir yerine) artık 10 saniyede bir güncellenerek görevlerin mevcut durumlarıyla ilgili daha hassas bir gösterge sağlatacak.

  • Japonya artık Qlik Cloud kiracı bölgesi olarak desteklenmektedir.

  • Veri ağ geçidi ile Qlik Cloud arasındaki yeniden deneme aralığı sürekli olarak artıyor, ancak hiçbir zaman sıfırlanmıyordu (hizmet yeniden başlatılmadığı sürece).
  • Bir SaaS uygulaması kaynağından veri taşırken tablolar bazen yeniden yükleme sırasında hata durumuna giriyordu.
  • MySQL kaynağı içeren görevler bazen CDC sırasında aşağıdaki hatayı vererek başarısız oluyordu:

    Read next binary log event failed; mariadb_rpl_fetch error 0 Error reading binary log.

  • Daha önce CDC denetim olayları yalnızca yerleştirme görevleri için günlüğe kaydediliyordu. Artık çoğaltma görevleri için de kaydedilecekler.
  • SQL Server'dan (MS-CDC) veri taşırken çok sayıda tablo içeren görevlerin başlaması bazen birkaç saat sürüyordu.
  • Kaynak tablosunda CLOB sütunları olduğunda ve "LOB boyutunu sınırlama" değeri 10240'ı aştığında Snowflake'e çoğaltma işlemi aşağıdaki hatayı vererek başarısız oluyordu:

    Invalid character length: 0

26 Aralık 2024
2023.11.4

Standart

12 Mart 2024

Müşteriler artık Veri Hareketi ağ geçidi uygulamasını Red Hat 9.x veya karşılık gelen ve uyumlu Linux dağıtımına yükleyebilir.

Veri Hareketi ağ geçidi ayarlama

Veri Hareketi ağ geçidi hizmetinin durumunu durdurma, başlatma ve kontrol etme komutları değişti.

Veri Hareketi ağ geçidi hizmet komutları

  • Amazon Redshift'te VARCHAR(1) ile eşlenen BOOLEAN veri türü artık BOOLEAN ile eşlenecektir.
  • Amazon Redshift'te VARCHAR(1) ile eşlenen BYTES ve BLOB veri türleri artık VARBINARY (uzunluk) ile eşlenecektir.

Bu bölümde, yeni desteklenen veritabanları, veritabanı sürümleri ve sürücü sürümleri listelenmektedir.

  • Yeni desteklenen veri kaynağı sürümleri ve yayımları

    Aşağıdaki veri kaynağı sürümleri artık desteklenmektedir:

    • Azure Database for MySQL - Flexible Server (MySQL kaynak bağlayıcısı üzerinden desteklenir)
    • MariaDB 10.4 - 10.11 (önceki 10.4 ve 10.5)
  • Yeni desteklenen hedef veri platformları ve yayımları

    Aşağıdaki veri hedefi sürümleri artık desteklenmektedir:

    • Azure Database for MySQL - Flexible Server (MySQL hedef bağlayıcısı üzerinden desteklenir)
    • Databricks: Databricks 13.3 LTS ve Serverless SQL Warehouse
  • Yeni desteklenen SAP HANA sürücü sürümü

    SAP HANA kaynağı olan ve Veri Hareketi ağ geçidi uygulamasını Red Hat Linux 9.x üzerine yüklemek isteyen müşteriler, SAP HANA ODBC 64 bit Sürücü Sürümü 2.0.19 veya daha yeni sürümlerini yüklemelidir.

Bu bölümde destek sonu veritabanı sürümleri hakkında bilgi verilmektedir.

  • Aşağıdaki veri kaynağı sürümleri için destek kesilmiştir:

    • Oracle 11.x
    • SAP HANA 1.0
  • Sunucu şifresi sağlamadan Veri Hareketi ağ geçidi yüklemek, kiracı ve proxy URL'lerinin bir komutta yapılandırılmasına izin vermeyecektir.
  • Bir Salesforce (SaaS uygulaması) veri kaynağından veri taşımak, çok sayıda gereksiz uyarı oluşturarak veri yükleme performansını olumsuz etkileyecektir.
  • Bir SaaS uygulaması veri kaynağı için değişiklikler alınırken tablolardan birine ilişkin değişiklikleri alma sırasında bir hata oluşursa ilgili tablo askıya alınıp işlem veri hattından kaldırılırdı. Artık bir hatayla karşılaşıldığında görev, tabloyu askıya almadan önce değişiklikleri almayı üç kez deneyecektir.
21 Kasım 2024
2023.5.16

Standart

9 Ocak 2024

Amazon S3'e ek olarak Qlik Cloud Data Integrarion'daki Replication projesinde desteklenen hedefleri genişletmeye devam ediyoruz. Artık Parquet, JSON veya CSV dosya formatlarında veri gölü teslimi için Azure Data Lake Storage (ADLS) ve Google Cloud Storage'ı (GCS) seçebilirsiniz.

  • Bağlantı için gereken dosyaların (SSL istemci sertifikası ve anahtar deposu dosyası gibi) boyutu 4 KB'yi aştığında IBM DB2 for LUW bağlantısı başarısız oluyordu.

  • Sürücü kurulum yardımcı programı kullanıldığında DB2 sürücü kurulumu başarısız oluyordu.

12 Eylül 2024

2023.5.15

Standart

12 Aralık 2023

Microsoft Fabric, veri işlem hattı projelerinde hedef olarak kullanılabilen veri depolarının sürekli uzayan listesine katılmıştır.

Sürücü kurulum yardımcı programındaki Snowflake sürücü sürümü güncellendi.

9 Temmuz 2024

2023.5.10

Standart

31 Ekim 2023

A private connection cVeri trafiğinizin güvenli ve uyumlu kalmasını sağlamak için özel bir bağlantı kullanılabilir.an be used to ensure your data traffic remains secure and compliant. Gelen güvenlik duvarı bağlantı noktalarını, proxy cihazlarını veya yönlendirme tablolarını açmaya gerek kalmadan VPC'nizin (Sanal Özel Bulut) hem ağ yönetimini hem de güvenliğini basitleştirir. Qlik Cloud Veri Entegrasyonu; Snowflake, Microsoft SQL Server ve Amazon S3 veri hattı hedeflerine özel bağlantıları zaten desteklemektedir. Bu sürümle birlikte müşteriler, verileri Databricks, Microsoft Azure Synapse, Google BigQuery ve Amazon Redshift'e taşırken özel bağlantıları da kullanabilecek.

  • Tüm PostgreSQL tabanlı veri kaynakları - Çok aralıklı veri türü desteği: Aşağıdaki çok aralıklı veri türleri artık tüm PostgreSQL tabanlı veri kaynaklarında (şirket içi ve bulut) desteklenmektedir.

    • INT4MULTIRANGE
    • INT8MULTIRANGE
    • NUMMULTIRANGE
    • TSMULTIRANGE
  • PostgreSQL veri kaynağı için AWS Aurora Cloud - Süper kullanıcı olmayan rol desteği: PostgreSQL bağlayıcısında belirtilen kullanıcının, PostgreSQL için AWS Aurora Cloud veri kaynağından veri taşımak için artık süper kullanıcı rolüne sahip olması gerekmiyor. Bu, özellikle ayrıcalıklı olmayan kullanıcılara süper kullanıcı erişimi vermelerini engelleyen kurumsal güvenlik politikalarına sahip kuruluşlar için kullanışlıdır.

Microsoft Azure SQL (MS-CDC) veri kaynağından veri taşıyan müşteriler artık bir Coğrafi Çoğaltma veritabanı kullanabilir.

Qlik Cloud Veri Entegrasyonu artık CDC sırasında Oracle şifrelenmiş tablo alanlarından ve şifrelenmiş sütunlardan veri okumayı desteklemektedir.

Qlik Cloud Veri Entegrasyonu artık Almanya ve Birleşik Krallık bölgelerindeki kiracıları destekliyor.

Bu bölümde yeni desteklenen veritabanı ve sürücü sürümleri listelenmektedir.

  • Yeni desteklenen veri kaynağı sürümleri. Aşağıdaki veri kaynağı sürümleri artık desteklenmektedir:

    • Microsoft SQL Server 2022
    • Oracle 21c
    • PostgreSQL 15.x
    • DB2 13.1 (IBM DB2 for z/OS ile çalışırken)
    • iSeries 7.5 için IBM DB2
  • Yeni desteklenen hedef veri platformu sürümleri. Aşağıdaki veri hedefi sürümleri artık desteklenmektedir:

    • Databricks (Bulut Depolama): Databricks 12.2 LTS ve Databricks SQL Sunucusuz
  • Sürücü sürümleri. Aşağıdaki ODBC sürücü sürümleri artık desteklenmektedir:

    • IBM DB2 for z/OZ ve IBM DB2 for LUW için IBM Data Server Client 11.5.8
    • Google Cloud BigQuery için Simba ODBC sürücüsü 3.0.0.1001
    • MySQL ODBC Unicode Sürücüsü 64-bit 8.0.32

Verileri Microsoft SQL Server'a veya Microsoft SQL Server'dan taşıyan müşterilerin SQL Server ODBC sürücü sürümlerini 18.x veya daha yeni bir sürüme yükseltmeleri gerekir. SQL Server ODBC Driver 17.x'i kullanmaya devam etmek veri hatalarına neden olabilir. Sürücünün yükseltilmesi, sürücü yükleme yardımcı programı kullanılarak ya da manuel olarak yapılabilir. Talimatlar için Sürücü kurulumu bölümüne bakın.

Bu bölümde destek sonu veritabanı sürümleri hakkında bilgi verilmektedir.

  • Destek sonu veri kaynağı sürümleri. Aşağıdaki veri kaynağı sürümleri için destek kesilmiştir:

    • PostgreSQL 10
    • MySQL 5.6
    • MariaDB 10.3
  • Destek sonu hedef veri platformu sürümleri. Aşağıdaki veri hedefi sürümleri için destek sonlandırılmıştır:

    • Databricks 9.1 LTS

12 Haziran 2024

2022.11.74

Standart

15 Ağustos 2023

Hızlı inovasyon ve benimseme sağlayan bulut öncelikli bir yaklaşım benimsiyoruz. Ancak bu, yalnızca bulutta çalıştığımız sonucunu doğurmaz. As part of our continued commitment to improving the long-term value for our customers, we are pleased to announce the release of a new use case for Replication when creating data projects. Yeni Çoğaltma kullanım durumu, Veri Ambarı modernizasyonu gibi tüm veri entegrasyonu ihtiyaçlarınız için veri işlem hatları oluşturmaya yönelik mevcut yeteneğe ektir.

Çoğaltma projesi, desteklenen veri kaynaklarından desteklenen bir hedefe gerçek zamanlı veri çoğaltmayı destekler.

Bu son sürümden başlayarak, verilerin gerçek zamanlı olarak çoğaltılmasını destekleyen ilk hedef Microsoft SQL Server'dır. Şirket içi Microsoft SQL Server desteğine ek olarak, aşağıdaki bulut sağlayıcıları da desteklenmektedir:

  • Şirket içinde
  • Amazon RDS
  • Google Cloud
  • Microsoft Azure (Microsoft Azure Yönetilen Örneği ve Microsoft Azure Veritabanı)

Verileri Microsoft Azure Synapse Analytics'e taşıyan müşterilerin SQL Server ODBC sürücü sürümlerini 18.x veya daha yeni bir sürüme yükseltmeleri gerekir. SQL Server ODBC Driver 17.x'i kullanmaya devam etmek veri hatalarına neden olabilir. Sürücünün yükseltilmesi, sürücü yükleme yardımcı programı kullanılarak ya da manuel olarak yapılabilir. Talimatlar için Sürücü kurulumu bölümüne bakın.

Müşterilerin Tam Yükleme sırasında önbelleğe alınan verileri kullanmak yerine verilerini doğrudan kaynaktan okumalarına olanak tanıyan yeni bir Kaynaktan dosya yükle seçeneği sunuldu.

Kullanım durumları da dahil olmak üzere bu seçenek hakkında daha fazla bilgi için bk. Yerleştirme ayarları.

Veri Hareketi ağ geçidi 2022.11.74, Qlik Cloud kiracısının kimlik doğrulaması için gerekli olan güncellenmiş CA sertifikalarını içerir. Güncellenen CA sertifikaları İrlanda ve Frankfurt bölgeleri için de destek sağlamaktadır. Bu nedenle, İrlanda veya Frankfurt'ta Qlik Cloud kiracısı olan ve Qlik Cloud Veri Entegrasyonu'nu kullanmak isteyen müşteriler bu sürüme yükseltmelidir.

Oracle kaynağından veri alan görevler, geniş bir tablo kullanılmayan veya desteklenmeyen sütunlar ya da çoğaltılmayan LOB sütunları içerdiğinde bazen başarısız oluyordu.

31 Nisan 2024

2022.11.70

Standart

28 Haziran 2023

Önceki sürümlerde, müşterilerin SAP istemcilerini kurarken "source arep_login.sh" komutunu çalıştırmaları gerekiyordu. Bu sürümden itibaren artık bu komutu çalıştırmak gerekli değildir.

Bu sürüm, Qlik Cloud kiracısının kimliğini doğrulamak için gereken güncellenmiş CA sertifikalarını içerir.

  • Veri Hareketi ağ geçidi üzerindeki bir çoğaltma görevi başarısız olduğunda ve otomatik olarak kurtarıldığında, kurtarılan durum Qlik Cloud'daki Yerleştirme veri varlığına iletilmez.

  • Veri Hareketi ağ geçidi için uçtan uca şifreleme varsayılan olarak etkin değildi, ayrıca çalışma zamanı bayrakları tarafından kontrol edilirdi.
15 Şubat 2024

2022.11.63

Standart

2 Mayıs 2023

Bu sürüm, sürücüleri manuel olarak yükleme ve yapılandırma gereksinimini ortadan kaldıran bir sürücü yükleme yardımcı programı sunar. Yeni yardımcı program, kullanıcı hatası olasılığını büyük oranda azaltırken yükleme işlemini kısaltır. Yardımcı program çalıştırıldığında, gerekli sürücü otomatik olarak indirilir (mümkünse) ve yüklenir. Sürücü indirilemezse (ör. DB2 sürücüleri oturum açmayı gerektirir), yapmanız gereken tek şey sürücüyü yüklemek, Veri Hareketi ağ geçidi makinesindeki özel bir klasöre kopyalamak ve yardımcı programı çalıştırmaktır.

Bir PostgreSQL sürücüsünü yüklemek üzere sürücü yükleme yardımcı programını kullanmaya ilişkin bir örnek için bkz. Ön koşullar

Snowflake bağlayıcısı artık 4 bit emoji karakterlerini destekliyor.

PostgreSQL bağlayıcısı artık Azure Database for PostgreSQL - Flexible Server'dan verileri taşımayı destekleyebiliyor.

PostgreSQL bağlayıcısı artık PostgreSQL için Cloud SQL'den veri taşıyabilir.

Bu sürüm, aşağıdaki yeni veri kaynağı sürümleri için destek sunar:

  • PostgreSQL 14
  • DB2 (IBM DB2 for z/OS için) 12.1
  • IBM DB2 for z/OS 2.5

Databricks 11.3 LTS

Aşağıdaki veri kaynağı sürümleri artık desteklenmiyor:

  • DB2 (IBM DB2 for z/OS için) 11
  • PostgreSQL 9.6
  • Microsoft SQL Server 2012
  • MariaDB 10.2

Bu sürüm, aşağıdaki sorunları çözer:

  • Oracle veri kaynağı: Bir görevi durdurup devam ettirirken, görev bazen "Bağlamda klasör konumu ayarlanamadı" hatasıyla başarısız oluyordu.
  • SAP Uygulaması kaynağı: Değişiklikler, yerleştirme görevi sırasında yakalanamıyordu.

28 Aralık 2023

2022.5.13

Standart

19 Ekim 2022

İlk sürüm

2 Kasım 2023

Kaldırma: Veri Hareketi ağ geçidi

Veri Hareketi ağ geçidi uygulamasını kaldırmak için aşağıdaki komutu çalıştırın:

rpm -e <installation package name>

Örnek:

rpm -e qlik-data-gateway-data-movement-2023.11-1.x86_64

Paket adını bilmiyorsanız şunu çalıştırın:

rpm -qa | grep qlik

Uyarı notuVeri Hareketi ağ geçidi uygulamasını kaldırmak, şu anda veri ağ geçidini kullanan tüm görevlerin başarısız olmasına neden olacaktır.

Bu sayfa size yardımcı oldu mu?

Bu sayfa veya içeriği ile ilgili bir sorun; bir yazım hatası, eksik bir adım veya teknik bir hata bulursanız lütfen bize bildirin!