Accéder au contenu principal Passer au contenu complémentaire

Ponts de Talend Cloud Data Catalog et de Talend Data Catalog

Nouvelles fonctionnalités et améliorations

Fonctionnalité Description

Meta Integration Metadata Management (MM) Data Quality (Qualité de données) (CSV) : Problème avec le nombre de lignes

Correction du nombre de lignes et des valeurs des notes.

Looker : Champs calculés

Ajout du support des champs calculés.

Base de données IBM DB2 Universal (UDB) (via JDBC) : L'élément 'DirectoryStructureModel' d'ID [DirectoryStructureModel] n'a pas de nom

Correction du chargement des données de la somme de contrôle.

Toute base de données JDBC : Optimisation du schéma et du nombre de types d'objets

Base de données Snowflake (via JDBC) : Ignore le chargement des types d'objets ayant un compte de zéro.

Ponts JDBC : Calcule l'identifiant de la version (Données de la somme de contrôle) pour tous les schémas importés par l'exécution d'une requête.

Databricks Unity Catalog : Support de la version 16.x

La version de Databricks a été mise à jour.

SAP S/4HANA, ECC : Support des Vues CDS

Pont SAP R/3 : Amélioration du support des Vues CDS.

Pont Microsoft Azure Purview (Catalogue de données) : Amélioration du support des Vues CDS.

dbt Cloud : L'entité du référentiel contient les informations Account (Compte) et Environment (Environnement)

  • Amélioration du pont et du profil : ajout des informations Account (Compte), Environment (Environnement), Instance, Seed (Graine), Macro, Test. Suppression du niveau Job.
  • Suppression du paramètre d'import Account (Compte).
  • La structure de navigation a été modifiée.

dbt/Améliorations majeures : Hierarchy (Hiérarchies), Models (Modèles), Tests, Macros et Seeds (Graines)

  • Ajout des objets Seeds (Graines), Macros et Tests.
  • L'arbre d'objets a été modifié en fonction de l'outil dbt.

dbt Cloud : Support de "Macro", "Seed (Graine)", "Test" et "Test Results (Résultats de test)"

  • Ajout de l'attribut 'Tests' au métamodèle 'dbt Operational'.
  • Implémentation des métadonnées de résultat de test pour le modèle dbt (utilisant les métadonnées opérationnelles dbt Schedules (Planifications) -> Update (Mise à jour)).

dbt et dbt Cloud : Support de la fonctionnalité "Test Results (Résultats de Test)"

Ajout de la propriété 'Tests' pour afficher les résultats de test pour les modèles (Scheduled operation (Opération planifiée) - Update dbt Operation metadata (Mettre à jour les métadonnées dbt opérationnelles)).

Informatica PowerCenter Transformation de tri pour le lignage de contrôle

Ajout de la condition de tri pour la transformation de tri.

Toute intégration de données/tout ETL/Outil de résumé : Synchronisation des noms de conditions

Ajout de méthodes d'infrastructure des attributs d'opérations.

Ajout d'UDP d'opérations aux ponts Informatica.

Toute base de données : Support des contraintes de vérification avec des liens de colonnes

Ajout du support des contraintes de vérifications pour les ponts JDBC.

Base de données Snowflake (via JDBC) : l'import est suspendu sur un schéma spécifique

Correction de l'import de caractéristiques si un schéma contient uniquement des étapes

Base de données Oracle (via JDBC) : Support des contraintes de vérification avec des liens de colonnes

Correction du chargement des contraintes de vérification des colonnes.

Notebooks Databricks : Support d'OAuth

Ajout du support d'OAuth.

Base de données Oracle MySQL (via JDBC) : Support des contraintes de vérification avec des liens de colonnes

Correction du chargement des contraintes de vérification des colonnes.

Base de données IBM DB2 Universal Database (UDB) (via JDBC) : Support des contraintes de vérification avec des liens de colonnes

Correction du chargement des contraintes de vérification de niveau table

Base de données Snowflake (via JDBC) : Différences de mots-clés dans la sauvegarde/la restauration

Correction des UDP dans la sauvegarde/restauration.

dbt Cloud : L'entité du référentiel contient les informations Account (Compte) et Environment (Environnement)

Pont dbt Cloud :
  • Amélioration du pont et du profil : ajout des informations Account (Compte), Environment (Environnement), Instance, Seed (Graine), Macro, Test.
  • Suppression du paramètre d'import Account (Compte).
  • La structure de navigation a été modifiée.
  • Ajout de Job comme entité d'inventaire.
Pont dbt Core :
  • Amélioration du pont et du profil : ajout de Project (Projet) au lieu de Directory (Répertoire).

Microsoft SQL Server Analysis (SSAS) et Reporting Services (SSRS)/Profil : Data Set (Ensemble de données) et Dataset (Jeu de données)

L'entité "Data Set (Ensemble de données)" a été renommée "Variables".

Informatica Cloud Data Integration (CDI) : Résolution dupliquant les noms

Les résolutions dupliquant les noms ont été corrigées.

Corrections notables

Problème Description

Serveur de Google Looker : L'erreur de parsage du champ sql_table_name ajoute des crochets au nom d'objet

Amélioration du support des identifiants Google BigQuery LegacySQL entourés de crochets [].

Toute intégration de données/tout ETL/Outil de résumé : Comportement instable des liens Control/DataControl

Amélioration du résumé des liens de contrôle.

Qlik Sense Cloud : Impossible de parser une date ayant l'erreur java.text.ParseException: Unparseable date

Correction du parsage de l'instruction LOAD démarrant par "load*," (sans espace).

Microsoft Power BI Desktop Report (Fichier) : Résolution des différences dans les tests de régression

Résolution des erreurs de compilation après les précédentes modifications du fichier CodeLib.jar.

Système de fichiers Apache Kafka/Profiling de données : Échoue avec l'erreur "does not exist (n'existe pas)"

Correction des problèmes de requêtes de profiling de données sur les systèmes Linux.

Script SQL/Outil de résumé : Différences dans l'opération de contrôle de map de résumé

La stabilité de la somme de contrôle (checksum) a été améliorée

Base de données Google Cloud BigQuery (via JDBC) : Certains scénarios des tests de régression produisent un résultat vide

Mise à jour de BigQuery en fonction des modifications apportées à JdbcCommon.

Databricks Unity Catalog Data Quality : La restauration de la sauvegarde a cessé de fonctionner

Le problème a été résolu.

Base de données Microsoft SQL Server (via JDBC) : Lignage incorrect pour une fonction pour deux bases de données sensibles à la casse

Amélioration de la sensibilité à la casse.

Interface de l'application Web/Lignage/Diagramme : Flèches entre les tables

Amélioration du lignage de vue d'ensemble de filtre dans MIMB.

Base de données Tanzu Greenplum (via JDBC) : Échoue avec l'exception MITI.MIRException: "SQL error '[Pivotal][Greenplum JDBC Driver][Greenplum]function array_length(smallint[], integer) does not exist."

Ajout de la possibilité d'ignorer des chargements de contraintes.

Système de fichiers Confluent Kafka : Échoue avec l'erreur "Unauthorized; error code: 401" lors de l'utilisation de l'authentification en clair (plain)

Amélioration de la connexion au registre de schéma Confluent Cloud Kafka à l'aide d'un fichier JAAS.

Base de données Snowflake Database (via JDBC)/Export Microsoft Purview : Ressources non découvertes

Ajout de code pour détecter les échecs de création de répertoire lors de la sauvegarde de métadonnées dans la sauvegarde de la base (backup).

MicroStrategy/Paramètre/Miscellaneous (Divers) : folders.include ne fonctionne pas

Ajout de la possibilité de spécifier l'ID du dossier MSTR au lieu du chemin du dossier MSTR dans les fichiers folder.include/folder.exclude. Vous devez modifier le chemin du dossier (\Duplicated IBDRen\Public Objects\AutoStyles) pour renseigner l'ID du dossier MSTR adéquat (631FE74C97E545ED85B1030836C8C1BF). Si l'ID du dossier MSTR est spécifié, le pont fonctionnera, quel que soit le langage utilisé.

Serveur Google Looker/v. 11 Apr 2 : Les dashboards ne sont pas importés et retournent une exception java.lang.NullPointerException

Ajout du support des champs dynamiques, correction de l'exception NPE et amélioration du parsage du lignage.

Base de données Teradata (via JDBC)/Mise à niveau de 11.0 à 11.1 : la propriété de la colonne "Field Format (Format du champ)" est manquante

Ajout de la propriété de colonne "Field Format (Format du champ)".

ThoughtSpot : Nouveau support de la version courante 10.x

Implémentation d'un nouveau pont basé sur la version 2 de l'API REST pour supporter les versions 9.2 à 10.x de ThoughtSpot.

Oracle (via JDBC) : Les synonymes publics ne comprennent pas tous les liens disponibles vers la table courante

  • ProfilerPartnerSDK : amélioration de la lecture de ReferenceLinks depuis le format CSV, avec le modelId de l'objet de destination.
  • ProfilerSDKDemo : amélioration de l'affichage de ReferenceLinks en tant que CSV, avec le modelId de l'objet de destination.
  • ProfilerPartnerSDK : amélioration du traitement de ReferenceLinks dans un multimodèle.
  • ProfilerPartnerSDK : permet d'éviter la création de AggregationLinks pour la plupart des MIRStoreConnection dans un multimodèle.

Toute base de données : Lorsque vous créez une sauvegarde, il n'y a aucune option permettant de spécifier un dossier manquant pour la sauvegarde

Correction de la création de tous les sous-répertoires manquants à l'emplacement de sauvegarde spécifié.

Informatica Cloud Data Quality/Paramètre Miscellaneous (Divers) : -connection.split et -connection.rename ne fonctionnent pas

Correction de la scission de connexion au niveau du schéma et de l'option Miscellaneous (Divers) "-connection.rename".

ThoughtSpot : Exception NullPointerException relative aux ModelStatistics

Le problème a été résolu.

Informatica PowerCenter (Référentiel) : java.lang.NullPointerException: Cannot invoke "MITI.sdk.MIRTransformationDataSet.getFeature(String)

Le problème a été résolu.

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – faites-le-nous savoir.