Ana içeriğe geç Tamamlayıcı içeriğe geç

Veri Hareketi ağ geçidi yükseltme ve yüklemesini kaldırma

Bu konuda, Veri Hareketi ağ geçidi yüklemenizi nasıl yükselteceğiniz veya kaldıracağınız açıklanmaktadır. Her bir Veri Hareketi ağ geçidi sürümünde sunulan değişiklikleri listeleyen bir tablo da sağlar.

Yükseltme yordamı

Geçerli sürümünüzü doğrulamak için Yönetimi > Veri ağ geçitleri bölümüne gidin ve Veri Hareketi ağ geçidi öğenize karşılık gelen Sürüm sütununu kontrol edin.

Yeni bir sürüm mevcutsa sürüm numarasına ! eklenir. Daha fazla bilgi almak için öğesinin üzerine gelebilirsiniz.

Bilgi notuSürümler bazen düzeltme olarak yayınlanır. Yalnızca yeni bir standart sürüm mevcutsa (bir düzeltme sürümünün aksine) ! gösterilecektir. Bir sürümün düzeltme sürümü mü yoksa standart sürüm mü olduğunu öğrenmek için aşağıdaki sürüm Veri Hareketi ağ geçidi geçmişi tablosundaki Tür sütununa bakın.

Yüklü ağ geçidi sürümü desteklenmiyorsa Durum Devre Dışı bırakılır ve ağ geçidini etkinleştirmek için bir yükseltme gerekir.

Yeni bir Veri Hareketi ağ geçidi rpm sürümü kullanıma sunulduğunda bu sürümü Yönetim bölümünden indirip mevcut yüklemeyi yükseltmelisiniz.

Bunu yapmak için:

  1. Ağ geçidinde öğesine ve ardından Yükselt'e tıklayarak yeni sürümü indirin.

    Müşteri sözleşmesini onaylayın ve RPM'yi indirmeye devam edin.

  2. Bir kabul istemi açıp çalışma dizinini RPM dosyasını içeren çalışma dizinine geçirin.
  3. Şu komutu çalıştırın:

    Söz Dizimi:

    rpm -U <rpm name>

    Örnek:

    sudo rpm -U qlik-data-gateway-data-movement.rpm

  4. Veri Hareketi ağ geçidi hizmetini başlatın:

    sudo systemctl start repagent

  5. İsteğe bağlı olarak hizmetin başlatıldığını doğrulayın:

    sudo systemctl status repagent

    Durum aşağıdaki gibi olmalıdır:

    Active: active (running) since <timestamp> ago

Veri Hareketi ağ geçidi sürüm geçmişi

Sürüm

Tür

Yayınlanma tarihi

Önemli değişiklikler

Destek sonu tarihi

2024.5.35

Düzeltme

10 Aralık 2024

Bu düzeltme aşağıdaki sorunları çözmektedir:

  • Bir depolama görevi sırasında, NVARCHAR(3500) veri türü, VARCHAR(8000) (izin verilen maksimum değer) yerine yanlışlıkla VARCHAR(10500) türüne dönüştürülerek bir hataya neden oluyordu.

  • Kaynak tablo, 941 (Japonca) kod sayfasına sahip bir GRAFİK veri türü içerdiğinde aşağıdaki hata meydana oluşuyordu (alıntı):

    Unexpected CCSID '941' in column 'PNTNM'

Sonraki büyük sürüm yayınlandığında belirlenir.

2024.5.32

Düzeltme

26 Kasım 2024

Workday Raporları kaynak bağlayıcısında kullanıcı adı ve parolayı güncelledikten ve ardından görevi yeniden yükledikten sonra, kimlik bilgileri doğru olsa bile "Geçersiz kullanıcı adı veya parola" hatası oluşuyordu. Bu sorun çözüldü.

Sonraki büyük sürüm yayınlandığında belirlenir.
2024.5.31

Düzeltme

19 Kasım 2024

Bu düzeltme aşağıdaki sorunları çözmektedir:

Veri Hareketi ağ geçidi ile birlikte gelen Oracle Java Standard Edition 17.0.8 sürümünde bilinen birçok güvenlik açığı bulunmaktadır. Bu düzeltme 17.0.8'i 17.0.12 ile değiştirerek sorunları çözmektedir.

CDC sırasında, her değişiklik için ilişkili _ct tablosuna (yalnızca bir değil) birden fazla INSERT işlemi eklenecektir. Bu, _ct tablosundaki kayıt sayısını önemli ölçüde artıracaktır.

Sonraki büyük sürüm yayınlandığında belirlenir.
2024.5.28

Standart

12 Kasım 2024 Yakında yayınlanacak olan Şema Değişimi özelliği için gerekli işlevselliği sağlar. Sonraki büyük sürüm yayınlandığında belirlenir.
2024.5.27

Düzeltme

5 Kasım 2024

Bu düzeltme aşağıdaki sorunları çözmektedir:

14 Ağustos 2024 tarihinde Snowflake, bazıları önceki Veri Hareketi ağ geçidi sürümleriyle kullanılan Snowflake JDBC sürücüleri >= 3.2.6 & <= 3.19.1 hakkında bir güvenlik uyarısı yayınladı. Güvenlik açığı, şu anda sürücü yükleme yardımcı programıyla birlikte yüklenen sürüm olan Snowflake JDBC Driver 3.20'de düzeltilmiştir. Mevcut müşteriler, Sürücü kurulumu bölümünde açıklanan Sürücüyü güncelleme prosedürünü izleyerek ilk fırsatta sürücülerini yükseltmelidir.

  • Redo olayı 11.22 kullanılırken, INSERT işlemlerinden önce sıkıştırılmamış bir sıkıştırılmış sayfada birden fazla INSERT işlenirken eksik INSERT işlemleri oluşuyordu.
  • Nadiren, yineleme günlüğü kaydındaki DELETE olaylarının yanlış ayrıştırılması "Yineleme Günlüğü DELETE olayı bilinmeyen bir yapı içeriyor" uyarısı ve ardından çeşitli sorunlar oluşturuyordu.

YAML dosyasındaki talimatlar, SAP Java Connector'ın doğru sürümünü yansıtacak şekilde güncellendi.

Snowflake hedefine bir proxy aracılığıyla bağlanmak için Veri Hareketi ağ geçidi kullanıldığında bağlantı başarısız oluyor ve aşağıdaki hatayı veriyordu:

500 Failed to connect to Data Movement Gateway

Sonraki büyük sürüm yayınlandığında belirlenir.
2024.5.22

Düzeltme

15 Ekim 2024 Bu düzeltme, Tam Yük + CDC çoğaltma görevinde, CDC görevi için Veri görevi şu şekilde güncellendi: alanında, CDC zaman damgaları yerine Tam Yük zaman damgasını gösterilmesine neden olan bir sorunu çözmektedir. Sonraki büyük sürüm yayınlandığında belirlenir.
2024.5.16

Düzeltme

8 Ekim 2024
    • Redo olayı 11.22 kullanılırken birden fazla INSERT işleminde bazen eksik INSERT'ler oluşabiliyordu.
    • Oracle 19g'yi Temmuz 2024 düzeltmesine yükselttikten sonra, UPDATE işlemleri bazen yakalanamıyor ve aşağıdaki uyarı gösteriliyordu:

      A compressed row cannot be parsed

  • Görev ayarları, kontrol tablosu şemasını oluşturacak şekilde yapılandırıldığında, görev aşağıdaki hatayla başarısız oluyordu:

    Failed to delete directory

  • Bir görev periyodik olarak çalışacak şekilde zamanlandığında bazen başarısız oluyor ve aşağıdaki hatayı veriyordu:

    The task stopped abnormally

  • Dönüşüm ve depolama görevleri bazen aşırı uzun süre Kuyruğa alındı durumunda kalabiliyordu.

  • Değişiklikleri Sakla çoğaltması ile use_manipulation_pk_for_apply özellik bayrağı kullanıldığında görevler başarısız oluyordu.

  • Dosyaları indirmek için belirteci kaybetmek gibi uzun süreli zaman aşımlarından kaynaklanan sorunları önlemek için S3 zaman aşımı 6 saate çıkarıldı.

Sonraki büyük sürüm yayınlandığında belirlenir.
2024.5.14

Standart

10 Eylül 2024
  • Anahtar/çift, hizmet hesaplarınızla Snowflake'e bağlanmak için kullanıcıdan/paroladan daha sağlam bir kimlik doğrulama yöntemi sağlar. Bu yaklaşım, veri yükleme (çoğaltma veya yerleştirme görevleri) ve dönüşümler gibi iş yükleri için önerilir.

  • Önceki sürümlerde, mevcut bir veri kümesindeki veya yeni eklenen bir veri kümesindeki meta verileri yenilemek bazen başarısız oluyor ve bir hata veriyordu. Bu geliştirme, meta verilerin birden fazla tablodan herhangi bir sorun olmadan paralel olarak alınabilmesini sağlar.

  • Bir kaynak tablo DECIMAL veri türüne sahip örneğin, DECIMAL (38, 20) gibi bir sütun içerdiğinde, Google BigQuery'de depolama görevini hazırlamak başarısız oluyor ve aşağıdaki hata veriliyordu (alıntı):

    Column <n> in <table name> has incompatible types: STRING, BIGNUMERIC at [93:1]

    Sorun, Google BigQuery'de kaynak DECIMAL veri türü DECIMAL ile eşlenerek çözüldü.

  • Bir veri görevinde mevcut bir şema kuralında değişiklik yaptıktan sonra aşağıdaki hata meydana gelir:

    QRI SQL error not implemented

  • Bir SAP Uygulama kaynağına bağlanan bir yerleştirme görevi hazırlanırken, görev başarıyla tamamlanır, ancak repsrv.log günlük dosyasında aşağıdaki hata rapor edilir:

    Invalid object name 'hk1./QTQVC/QRI'

Sonraki büyük sürüm yayınlandığında belirlenir.
2024.5.7

Standart

6 Ağustos 2024
  • Daha önce bir meta veri değişikliği gerçekleştiğinde meta veri değişikliği tüm tabloları etkilemese bile tüm tablolar kullanımdan kaldırılıp yeniden oluşturuluyordu. Artık yalnızca etkilenen tablolar kullanımdan kaldırılacak ve yeniden oluşturulacak, bu sayede performans artırılacak.

  • Desen ekle ile eşleşen çoğaltma veri görevi sırasında kaynak veritabanında oluşturulan tablolar artık CDC (Değişiklik verisi yakalama) sırasında otomatik olarak yakalanacak.

    • Daha önce Microsoft SQL Server'dan (MS-CDC) birde fazla işlem okurken Qlik Talend Data Integration yalnızca ilk işleme ait zaman damgasını ve işlem kimliğini koruyordu. Hedefte bu, kayıtlar tek bir işlemin parçasıymış gibi bir görünüm veriyordu. Artık Qlik Talend Data Integration, her bir kayıt için orijinal işlem kimliğini ve zaman damgasını koruyacak. Bu, Değişiklik tablolarında İşlem Kimliği ve Zaman Damgası başlık sütunlarından faydalanmak isteyen müşteriler için faydalıdır.

    • Daha önce işlem kimliğindeki baytlar ters sırayla kodlanıyordu. Bu sürümden itibaren baytlar doğru sırada kodlanacak. Mevcut davranışı korumayı tercih eden Bilgi Müşterileri bunu dahili parametreler kullanarak yapabilir. Ayrıntılar için lütfen Qlik Destek ekibiyle iletişime geçin.

  • Qlik Talend Data Integration artık şirket içinde veya bulutta MySQL kaynakları ya da hedefleri ile çalışırken SHA-2 çıkarılabilir kimlik doğrulamasını (caching_sha2_password) önbelleğe almayı destekliyor. Önceki sürümlerde yalnızca Yerel Çıkarılabilir Kimlik Doğrulaması (mysql_native_password) destekleniyordu.

  • BYTES ve BLOB veri türleri artık VARCHAR yerine Amazon Redshift'te VARBYTE ile eşlenecektir.

    • PostgreSQL 16.x

    • MySQL 8.1
    • z/OS için IBM DB2 3.1
    • PostgreSQL 16.x
    • MySQL 8.1
    • Databricks 14.3 LTS
    • SQL Server ODBC Sürücüsü 18.3

Aşağıdaki veritabanı sürümleri için destek kesilmiştir:

  • Oracle 19.x sürümünden eski tüm Oracle sürümleri ve sürücüleri
  • Microsoft SQL Server 2014
  • MySQL 5.7
  • PostgreSQL 11
  • LUW için IBM DB2 10.5
  • z/OS: z/OS 2.3 için IBM DB2
  • Yakalanan küme belgesi değişikliği, yakalanan tüm tablolarındaki satırların hepsini sildiğinde eksik DELETE işlemi ve gereksiz onay mesajları ile karşılaşılır.

  • Java için Microsoft Kimlik Doğrulama Kitaplığı (MSAL4J) ve Bouncy Castle, bilinen güvenlik açıkları olmayan sürümlere güncellendi.

    • Snowflake dahili depolamasını kullanırken görev bazen başarısız olur.
    • Hedef şema adı Japon Katakana olduğunda görev başarısız oluyordu.
  • Bir görevi Oracle kaynağıyla sürdürürken görev, uygun bir hatayla başarısız olmak yerine silinen bir Arşivlenen Yineleme Günlüğünü beklemeye devam ediyordu.

Sonraki büyük sürüm yayınlandığında belirlenir.
2023.11.23

Standart

26 Haziran 2024
  • Bu sürümden itibaren (hazırlanmış dosyalar için) Snowflake meta veri şeması mevcut değilse oluşturulur.

  • Veri kümesini yeniden adlandır kuralında (tablo adını şema adıyla birleştiren) bir değişiklik yapıldıktan ve yerleştirme görevine bir Görünüm eklendikten sonra, Hazırla işlemi aşağıdaki hatayla başarısız oluyordu:

    QRI SQL error not implemented.

  • java_file_factory bileşenini bilinen güvenlik açığı olmayan bir sürüme güncelledik.
  • org.postgresql:postgresql bilinen herhangi bir güvenlik açığı içermeyen bir sürüme güncellendi.
  • SQL Server'a veri taşırken dizin adları 128 karakteri aştığında Hazırla işlemi başarısız oluyordu. Sorun, daha kısa dizin adları oluşturma mantığı değiştirilerek çözüldü.
  • SQL Server'dan veri taşırken tablo tanımlarındaki eksik bir sütun adı, repsrv.log dosyasında aşağıdaki mesajla sonsuz bir bildirim döngüsüne neden olacaktır:

    mssql_resolve_sqlserver_table_column_attributes(...) failed to find column

6 Şubat 2025

2023.11.11

Standart

21 Mayıs 2024
  • Birden fazla tablo için eş zamanlı olarak meta veri alma desteği eklendi.

  • Yerleştirme ve çoğaltma görevleri için izleme bilgileri (60 saniyede bir yerine) artık 10 saniyede bir güncellenerek görevlerin mevcut durumlarıyla ilgili daha hassas bir gösterge sağlatacak.

  • Japonya artık Qlik Cloud kiracı bölgesi olarak desteklenmektedir.

  • Veri ağ geçidi ile Qlik Cloud arasındaki yeniden deneme aralığı sürekli olarak artıyor, ancak hiçbir zaman sıfırlanmıyordu (hizmet yeniden başlatılmadığı sürece).
  • Bir SaaS uygulaması kaynağından veri taşırken tablolar bazen yeniden yükleme sırasında hata durumuna giriyordu.
  • MySQL kaynağı içeren görevler bazen CDC sırasında aşağıdaki hatayı vererek başarısız oluyordu:

    Read next binary log event failed; mariadb_rpl_fetch error 0 Error reading binary log.

  • Daha önce CDC denetim olayları yalnızca yerleştirme görevleri için günlüğe kaydediliyordu. Artık çoğaltma görevleri için de kaydedilecekler.
  • SQL Server'dan (MS-CDC) veri taşırken çok sayıda tablo içeren görevlerin başlaması bazen birkaç saat sürüyordu.
  • Kaynak tablosunda CLOB sütunları olduğunda ve "LOB boyutunu sınırlama" değeri 10240'ı aştığında Snowflake'e çoğaltma işlemi aşağıdaki hatayı vererek başarısız oluyordu:

    Invalid character length: 0

Sonraki büyük sürüm yayınlandığında belirlenir.
2023.11.4

Standart

12 Mart 2024

Müşteriler artık Veri Hareketi ağ geçidi uygulamasını Red Hat 9.x veya karşılık gelen ve uyumlu Linux dağıtımına yükleyebilir.

Veri Hareketi ağ geçidi ayarlama

Veri Hareketi ağ geçidi hizmetinin durumunu durdurma, başlatma ve kontrol etme komutları değişti.

Veri Hareketi ağ geçidi hizmet komutları

  • Amazon Redshift'te VARCHAR(1) ile eşlenen BOOLEAN veri türü artık BOOLEAN ile eşlenecektir.
  • Amazon Redshift'te VARCHAR(1) ile eşlenen BYTES ve BLOB veri türleri artık VARBINARY (uzunluk) ile eşlenecektir.

Bu bölümde, yeni desteklenen veritabanları, veritabanı sürümleri ve sürücü sürümleri listelenmektedir.

  • Yeni desteklenen veri kaynağı sürümleri ve yayımları

    Aşağıdaki veri kaynağı sürümleri artık desteklenmektedir:

    • Azure Database for MySQL - Flexible Server (MySQL kaynak bağlayıcısı üzerinden desteklenir)
    • MariaDB 10.4 - 10.11 (önceki 10.4 ve 10.5)
  • Yeni desteklenen hedef veri platformları ve yayımları

    Aşağıdaki veri hedefi sürümleri artık desteklenmektedir:

    • Azure Database for MySQL - Flexible Server (MySQL hedef bağlayıcısı üzerinden desteklenir)
    • Databricks: Databricks 13.3 LTS ve Serverless SQL Warehouse
  • Yeni desteklenen SAP HANA sürücü sürümü

    SAP HANA kaynağı olan ve Veri Hareketi ağ geçidi uygulamasını Red Hat Linux 9.x üzerine yüklemek isteyen müşteriler, SAP HANA ODBC 64 bit Sürücü Sürümü 2.0.19 veya daha yeni sürümlerini yüklemelidir.

Bu bölümde destek sonu veritabanı sürümleri hakkında bilgi verilmektedir.

  • Aşağıdaki veri kaynağı sürümleri için destek kesilmiştir:

    • Oracle 11.x
    • SAP HANA 1.0
  • Sunucu şifresi sağlamadan Veri Hareketi ağ geçidi yüklemek, kiracı ve proxy URL'lerinin bir komutta yapılandırılmasına izin vermeyecektir.
  • Bir Salesforce (SaaS uygulaması) veri kaynağından veri taşımak, çok sayıda gereksiz uyarı oluşturarak veri yükleme performansını olumsuz etkileyecektir.
  • Bir SaaS uygulaması veri kaynağı için değişiklikler alınırken tablolardan birine ilişkin değişiklikleri alma sırasında bir hata oluşursa ilgili tablo askıya alınıp işlem veri hattından kaldırılırdı. Artık bir hatayla karşılaşıldığında görev, tabloyu askıya almadan önce değişiklikleri almayı üç kez deneyecektir.
Sonraki büyük sürüm yayınlandığında belirlenir.
2023.5.16

Standart

9 Ocak 2024

Amazon S3'e ek olarak Qlik Cloud Data Integrarion'daki Replication projesinde desteklenen hedefleri genişletmeye devam ediyoruz. Artık Parquet, JSON veya CSV dosya formatlarında veri gölü teslimi için Azure Data Lake Storage (ADLS) ve Google Cloud Storage'ı (GCS) seçebilirsiniz.

  • LUW için IBM DB2 bağlantısında gereken dosyaların boyutu (SSL istemci sertifikası ve keystore dosyası gibi) 4 KB'ı geçerse bağlantı başarısız olur.

  • Sürücü yükleme yardımcı programı kullanılırken DB2 sürücü yüklemesi başarısız olur.

7 Eylül 2024

2023.5.15

Standart

12 Aralık 2023

Microsoft Fabric, veri işlem hattı projelerinde hedef olarak kullanılabilen veri depolarının sürekli uzayan listesine katılmıştır.

Sürücü yükleme yardımcı programındkai Snowflake sürücü sürümü güncellendi.

7 Eylül 2024

2023.5.10

Standart

31 Ekim 2023

A private connection cVeri trafiğinizin güvenli ve uyumlu kalmasını sağlamak için özel bir bağlantı kullanılabilir.an be used to ensure your data traffic remains secure and compliant. Gelen güvenlik duvarı bağlantı noktalarını, proxy cihazlarını veya yönlendirme tablolarını açmaya gerek kalmadan VPC'nizin (Sanal Özel Bulut) hem ağ yönetimini hem de güvenliğini basitleştirir. Qlik Cloud Veri Entegrasyonu; Snowflake, Microsoft SQL Server ve Amazon S3 veri hattı hedeflerine özel bağlantıları zaten desteklemektedir. Bu sürümle birlikte müşteriler, verileri Databricks, Microsoft Azure Synapse, Google BigQuery ve Amazon Redshift'e taşırken özel bağlantıları da kullanabilecek.

  • Tüm PostgreSQL tabanlı veri kaynakları - Çok aralıklı veri türü desteği: Aşağıdaki çok aralıklı veri türleri artık tüm PostgreSQL tabanlı veri kaynaklarında (şirket içi ve bulut) desteklenmektedir.

    • INT4MULTIRANGE
    • INT8MULTIRANGE
    • NUMMULTIRANGE
    • TSMULTIRANGE
  • PostgreSQL veri kaynağı için AWS Aurora Cloud - Süper kullanıcı olmayan rol desteği: PostgreSQL bağlayıcısında belirtilen kullanıcının, PostgreSQL için AWS Aurora Cloud veri kaynağından veri taşımak için artık süper kullanıcı rolüne sahip olması gerekmiyor. Bu, özellikle ayrıcalıklı olmayan kullanıcılara süper kullanıcı erişimi vermelerini engelleyen kurumsal güvenlik politikalarına sahip kuruluşlar için kullanışlıdır.

Microsoft Azure SQL (MS-CDC) veri kaynağından veri taşıyan müşteriler artık bir Coğrafi Çoğaltma veritabanı kullanabilir.

Qlik Cloud Veri Entegrasyonu artık CDC sırasında Oracle şifrelenmiş tablo alanlarından ve şifrelenmiş sütunlardan veri okumayı desteklemektedir.

Qlik Cloud Veri Entegrasyonu artık Almanya ve Birleşik Krallık bölgelerindeki kiracıları destekliyor.

Bu bölümde yeni desteklenen veritabanı ve sürücü sürümleri listelenmektedir.

  • Yeni desteklenen veri kaynağı sürümleri. Aşağıdaki veri kaynağı sürümleri artık desteklenmektedir:

    • Microsoft SQL Server 2022
    • Oracle 21c
    • PostgreSQL 15.x
    • DB2 13.1 (IBM DB2 for z/OS ile çalışırken)
    • iSeries 7.5 için IBM DB2
  • Yeni desteklenen hedef veri platformu sürümleri. Aşağıdaki veri hedefi sürümleri artık desteklenmektedir:

    • Databricks (Bulut Depolama): Databricks 12.2 LTS ve Databricks SQL Sunucusuz
  • Sürücü sürümleri. Aşağıdaki ODBC sürücü sürümleri artık desteklenmektedir:

    • IBM DB2 for z/OZ ve IBM DB2 for LUW için IBM Data Server Client 11.5.8
    • Google Cloud BigQuery için Simba ODBC sürücüsü 3.0.0.1001
    • MySQL ODBC Unicode Sürücüsü 64-bit 8.0.32

Verileri Microsoft SQL Server'a veya Microsoft SQL Server'dan taşıyan müşterilerin SQL Server ODBC sürücü sürümlerini 18.x veya daha yeni bir sürüme yükseltmeleri gerekir. SQL Server ODBC Driver 17.x'i kullanmaya devam etmek veri hatalarına neden olabilir. Sürücünün yükseltilmesi, sürücü yükleme yardımcı programı kullanılarak ya da manuel olarak yapılabilir. Talimatlar için Sürücü kurulumu bölümüne bakın.

Bu bölümde destek sonu veritabanı sürümleri hakkında bilgi verilmektedir.

  • Destek sonu veri kaynağı sürümleri. Aşağıdaki veri kaynağı sürümleri için destek kesilmiştir:

    • PostgreSQL 10
    • MySQL 5.6
    • MariaDB 10.3
  • Destek sonu hedef veri platformu sürümleri. Aşağıdaki veri hedefi sürümleri için destek sonlandırılmıştır:

    • Databricks 9.1 LTS

7 Eylül 2024

2022.11.74

Standart

15 Ağustos 2023

Hızlı inovasyon ve benimseme sağlayan bulut öncelikli bir yaklaşım benimsiyoruz. Ancak bu, yalnızca bulutta çalıştığımız sonucunu doğurmaz. As part of our continued commitment to improving the long-term value for our customers, we are pleased to announce the release of a new use case for Replication when creating data projects. Yeni Çoğaltma kullanım durumu, Veri Ambarı modernizasyonu gibi tüm veri entegrasyonu ihtiyaçlarınız için veri işlem hatları oluşturmaya yönelik mevcut yeteneğe ektir.

Çoğaltma projesi, desteklenen veri kaynaklarından desteklenen bir hedefe gerçek zamanlı veri çoğaltmayı destekler.

Bu son sürümden başlayarak, verilerin gerçek zamanlı olarak çoğaltılmasını destekleyen ilk hedef Microsoft SQL Server'dır. Şirket içi Microsoft SQL Server desteğine ek olarak, aşağıdaki bulut sağlayıcıları da desteklenmektedir:

  • Şirket içi
  • Amazon RDS
  • Google Cloud
  • Microsoft Azure (Microsoft Azure Yönetilen Örneği ve Microsoft Azure Veritabanı)

Verileri Microsoft Azure Synapse Analytics'e taşıyan müşterilerin SQL Server ODBC sürücü sürümlerini 18.x veya daha yeni bir sürüme yükseltmeleri gerekir. SQL Server ODBC Driver 17.x'i kullanmaya devam etmek veri hatalarına neden olabilir. Sürücünün yükseltilmesi, sürücü yükleme yardımcı programı kullanılarak ya da manuel olarak yapılabilir. Talimatlar için Sürücü kurulumu bölümüne bakın.

Müşterilerin Tam Yükleme sırasında önbelleğe alınan verileri kullanmak yerine verilerini doğrudan kaynaktan okumalarına olanak tanıyan yeni bir Kaynaktan dosya yükle seçeneği sunuldu.

Kullanım durumları da dahil olmak üzere bu seçenek hakkında daha fazla bilgi için bk. Yerleştirme ayarları.

Veri Hareketi ağ geçidi 2022.11.74, Qlik Cloud kiracısının kimlik doğrulaması için gerekli olan güncellenmiş CA sertifikalarını içerir. Güncellenen CA sertifikaları İrlanda ve Frankfurt bölgeleri için de destek sağlamaktadır. Bu nedenle, İrlanda veya Frankfurt'ta Qlik Cloud kiracısı olan ve Qlik Cloud Veri Entegrasyonu'nu kullanmak isteyen müşteriler bu sürüme yükseltmelidir.

Oracle kaynağından veri alan görevler, geniş bir tablo kullanılmayan veya desteklenmeyen sütunlar ya da çoğaltılmayan LOB sütunları içerdiğinde bazen başarısız oluyordu.

31 Nisan 2024

2022.11.70

Standart

28 Haziran 2023

Önceki sürümlerde, müşterilerin SAP istemcilerini yüklerken "source arep_login.sh" komutunu çalıştırması gerekiyordu. Bu sürümden itibaren artık bu komutu çalıştırmaya gerek kalmıyor.

Bu sürüm, Qlik Cloud kiracısının kimlik doğrulaması için gerekli olan güncellenmiş CA sertifikalarını içerir.

  • Veri Hareketi ağ geçidi üzerindeki bir çoğaltma görevi başarısız olduğunda ve otomatik olarak kurtarıldığında, kurtarılan durum Qlik Cloud'daki Yerleştirme veri varlığına iletilmez.

  • Veri Hareketi ağ geçidi için uçtan uca şifreleme varsayılan olarak etkin değildi, ayrıca çalışma zamanı bayrakları tarafından kontrol edilirdi.
15 Eylül 2023

2022.11.63

Standart

2 Mayıs 2023

Bu sürüm, sürücüleri manuel olarak yükleme ve yapılandırma gereksinimini ortadan kaldıran bir sürücü yükleme yardımcı programı sunar. Yeni yardımcı program, kullanıcı hatası olasılığını büyük oranda azaltırken yükleme işlemini kısaltır. Yardımcı program çalıştırıldığında, gerekli sürücü otomatik olarak indirilir (mümkünse) ve yüklenir. Sürücü indirilemezse (ör. DB2 sürücüleri oturum açmayı gerektirir), yapmanız gereken tek şey sürücüyü yüklemek, Veri Hareketi ağ geçidi makinesindeki özel bir klasöre kopyalamak ve yardımcı programı çalıştırmaktır.

Bir PostgreSQL sürücüsünü yüklemek üzere sürücü yükleme yardımcı programını kullanmaya ilişkin bir örnek için bkz. Ön koşullar

Snowflake bağlayıcısı artık 4 bit emoji karakterlerini destekliyor.

PostgreSQL bağlayıcısı artık Azure Database for PostgreSQL - Flexible Server'dan verileri taşımayı destekleyebiliyor.

PostgreSQL bağlayıcısı artık PostgreSQL için Cloud SQL'den veri taşıyabilir.

Bu sürüm, aşağıdaki yeni veri kaynağı sürümleri için destek sunar:

  • PostgreSQL 14
  • DB2 (IBM DB2 for z/OS için) 12.1
  • IBM DB2 for z/OS 2.5

Databricks 11.3 LTS

Aşağıdaki veri kaynağı sürümleri artık desteklenmiyor:

  • DB2 (IBM DB2 for z/OS için) 11
  • PostgreSQL 9.6
  • Microsoft SQL Server 2012
  • MariaDB 10.2

Bu sürüm, aşağıdaki sorunları çözer:

  • Oracle veri kaynağı: Bir görevi durdurup devam ettirirken, görev bazen "Bağlamda klasör konumu ayarlanamadı" hatasıyla başarısız oluyordu.
  • SAP Uygulaması kaynağı: Değişiklikler, yerleştirme görevi sırasında yakalanamıyordu.

15 Eylül 2023

2022.5.13

Standart

19 Ekim 2022

İlk yayınlanma

2 August 2023

Veri Hareketi ağ geçidi kaldırma

Veri Hareketi ağ geçidi yüklemesini kaldırmak için şu komutu çalıştırın:

rpm -e <installation package name>

Örnek:

rpm -e qlik-data-gateway-data-movement-2023.11-1.x86_64

Paket adını bilmiyorsanız şunu çalıştırın:

rpm -qa | grep qlik

Uyarı notuVeri Hareketi ağ geçidi yüklemesini kaldırmak, şu anda veri ağ geçidini kullanan tüm görevlerin başarısız olmasına yol açacaktır.

Bu sayfa size yardımcı oldu mu?

Bu sayfa veya içeriği ile ilgili bir sorun; bir yazım hatası, eksik bir adım veya teknik bir hata bulursanız, bize bildirin, düzeltelim!