Talend Cloud Data Catalog und Talend Data Catalog - Bridges
Neue Funktionen und Verbesserungen
| Funktion | Beschreibung |
|---|---|
|
Meta Integration Metadaten-Verwaltung (MM) Datenqualität (CSV): Problem mit der Zeilenanzahl |
Die Anzahl der Zeilen und die Score-Werte wurden korrigiert. |
|
Looker: Berechnete Felder |
Es wurde Unterstützung für berechnete Felder hinzugefügt. |
|
IBM DB2 Universal Database (UDB) (über JDBC): Element „DirectoryStructureModel“ mit ID [DirectoryStructureModel] hat keinen Namen |
Das Laden von Prüfsummendaten wurde korrigiert. |
|
Beliebige Datenbank JDBC: Optimierung von leerem Schema und Objekttypzählung |
Snowflake-Datenbank (über JDBC): Laden von Objekttypen mit Null-Zähler überspringen. JDBC-Bridges: Versions-ID (Prüfsummendaten) für alle importierten Schemas durch Ausführen einer Abfrage berechnen. |
|
Databricks Unity-Katalog: Unterstützung für 16.x |
Aktualisierte Databricks-Version. |
|
SAP S/4HANA, ECC: Unterstützung von CDS Views als CDS-Ansichten (anstatt gewöhnlicher Ansichten) |
SAP R/3-Bridge: Verbesserte Unterstützung für CDS Views. Microsoft Azure Purview (Datenkatalog)-Bridge: Verbesserte Unterstützung für CDS Views. |
|
dbt Cloud: Die Repository-Entität enthält sowohl Konto- als auch Umgebungsinformationen |
|
|
dbt / Wichtigste Verbesserungen: Hierarchie, Modelle, Tests, Makros und Seeds |
|
|
dbt Cloud: Unterstützung für „Makro“, „Seed“, „Test“ und „Testergebnisse“. |
|
|
dbt und dbt Cloud: Unterstützung für die Funktion „Testergebnisse“ |
Die Eigenschaft „Tests“ wurde hinzugefügt, um die Testergebnisse für Modelle anzuzeigen (Geplanter Vorgang – dbt-Vorgangs-Metadaten aktualisieren). |
|
Informatica PowerCenter: Sortierumwandlung für Kontrollherkunft |
Sortierbedingung für Sortierumwandlung hinzugefügt. |
|
Beliebiges DI/ETL / Zusammenfasser: Bedingungsnamen synchronisieren |
Vorgangsattribut-Infrastrukturmethoden hinzugefügt. Vorgangs-UDPs zu Informatica-Bridges hinzugefügt. |
|
Alle Datenbanken: Unterstützung für „Check Constraints (Constraints prüfen)“ mit Spalten-Links |
Unterstützung für „Check Constraints“ (Constraints prüfen) für JDBC-Bridges wurde hinzugefügt. |
|
Snowflake-Datenbank (über JDBC): Import hängt bei spezifischem Schema |
Import von Funktionen behoben, wenn ein Schema nur Phasen enthält. |
|
Oracle-Datenbank (über JDBC): Unterstützung für „Check Constraints (Constraints prüfen)“ mit Spalten-Links |
Laden der Spalte „Check Constraints (Constraints prüfen)“ korrigiert. |
|
Databricks Notebooks: OAuth-Unterstützung |
Es wurde Unterstützung für OAuth hinzugefügt. |
|
Oracle MySQL-Datenbank (über JDBC): Unterstützung für „Check Constraints (Constraints prüfen)“ mit Spalten-Links |
Laden der Spalte „Check Constraints (Constraints prüfen)“ korrigiert. |
|
IBM DB2 Universal Database (UDB) (über JDBC): Unterstützung für „Check Constraints (Constraints prüfen)“ mit Spalten-Links |
Laden von „Check Constraints (Constraints prüfen)“ auf Tabellenebene korrigiert |
|
Snowflake-Datenbank (über JDBC): Unterschiede in Sicherung/Wiederherstellung für Tags |
Sicherung/Wiederherstellung für UDPs korrigiert. |
|
dbt Cloud: Die Repository-Entität enthält sowohl Konto- als auch Umgebungsinformationen |
dbt Cloud-Bridge:
|
|
Microsoft SQL Server Analysis (SSAS) und Reporting Services (SSRS) / Profil: Data Set oder Dataset |
Entität „Data Set“ in „Variables“ umbenannt |
|
Informatica Cloud Data Integration (CDI): Auflösung von duplizierten Namen |
Auflösungen von duplizierten Namen korrigiert. |
Bedeutende Fixes
| Problem | Beschreibung |
|---|---|
|
Google Looker Server: Fehler bei Parsen des Felds sql_table_name führt zum Anhängen von Klammern an den Objektnamen |
Verbesserte Unterstützung für Google BigQuery LegacySQL-IDs, die in eckige Klammern [] eingeschlossen sind. |
|
Beliebiges DI/ETL / Zusammenfasser: Instabiles Verhalten der Control/DataControl-Links |
Verbesserte Control-Link-Zusammenfassung. |
|
Qlik Sense Cloud: Datum kann nicht geparst werden; der Fehler java.text.ParseException: Datum kann nicht geparst werden tritt auf |
Parsing-Ladebefehl wurde korrigiert, der ab „load*,“ beginnt (kein Leerzeichen zwischen load, * und Komma ). |
|
Microsoft Power BI Desktop Report (Datei): Beheben der Unterschiede in Regressionstests |
Kompilierungsfehler nach den vorherigen Änderungen in CodeLib.jar behoben. |
|
Apache Kafka-Dateisystem / Data-Profiling: Schlägt mit „existiert nicht“ fehl |
Probleme mit Data-Profiling-Anforderung unter Linux behoben. |
|
SQL Script / Zusammenfasser: Unterschiede im Zusammenfassungszuordnungs-Kontrollvorgang |
Die Prüfsummenstabilität wurde verbessert. |
|
Google Cloud BigQuery-Datenbank (über JDBC): Einige Testfälle für Regressionstests ergaben ein leeres Ergebnis |
BigQuery entsprechend den Änderungen an JdbcCommon aktualisiert. |
|
Datenqualität von Databricks Unity Catalog: Sicherungswiederherstellung funktionierte nicht mehr |
Das Problem wurde behoben. |
|
Microsoft SQL Server-Datenbank (über JDBC): Falsche Herkunft für eine Funktion für zwei Datenbanken mit Unterscheidung zischen Groß-/Kleinschreibung |
Unterscheidung zwischen Groß-/Kleinschreibung wurde verbessert. |
|
Web App UI / Herkunft / Diagramm: Pfeile zwischen Tabellen |
Verbesserte Herkunft für Filterübersicht in MIMB. |
|
Tanzu Greenplum-Datenbank (über JDBC): Schlägt mit MITI.MIRException fehl: „SQL-Fehler '[Pivotal][Greenplum JDBC-Treiber][Greenplum]function array_length(smallint[], integer) ist nicht vorhanden.“ |
Es wurde die Möglichkeit hinzugefügt, das Laden von Einschränkungen zu überspringen. |
|
Confluent Kafka-Dateisystem: Schlägt mit „Nicht autorisiert; Fehlercode: 401“ fehl, wenn einfache Authentifizierung verwendet wird |
Die Anmeldung bei Confluent Cloud Kafka/Schemaregistrierung über JAAS-Datei wurde verbessert. |
|
Snowflake-Datenbank (über JDBC) / Microsoft Purview-Export: Objekte werden nicht erkannt |
Es wurde Code hinzugefügt, um Verzeichnungserstellungsfehler zu erkennen, während Metadaten in der Sicherung gespeichert werden. |
|
MicroStrategy / Parameter / Verschiedenes: folders.include funktioniert nicht |
Es wurde die Möglichkeit hinzugefügt, die MSTR-Ordner-ID anstelle des MSTR-Ordnerpfads in folder.include/folder.exclude-Dateien anzugeben. Sie müssen den Ordnerpfad (\Duplicated IBDRen\Public Objects\AutoStyles) in die korrekte MSTR-Ordner-ID (631FE74C97E545ED85B1030836C8C1BF) ändern. Wenn die MSTR-Ordner-ID angegeben wird, funktioniert die Bridge, unabhängig von der verwendeten Sprache. |
|
Google Looker Server / v. 11 Apr 2: Dashboards werden nicht importiert und verursachen die Ausnahme java.lang.NullPointerException |
Unterstützung für dynamische Felder hinzugefügt, NPE behoben, und Herkunfts-Parsing verbessert. |
|
Teradata-Datenbank (über JDBC) / Upgrade von 11.0 auf 11.1: Spalteneigenschaft „Field Format (Feldformat)“ fehlt |
Die Spalteneigenschaft „Field Format (Feldformat)“ wurde hinzugefügt. |
|
ThoughtSpot: Neue Unterstützung für die aktuelle Version 10.x |
Implementierung einer neuen Bridge basierend auf REST API V2 zur Unterstützung der ThoughtSpot-Versionen 9.2 bis 10.x. |
|
Oracle (über JDBC): Für öffentliche Synonyme sind nicht alle Links zur aktuellen Tabelle verfügbar |
|
|
Alle Datenbanken: Beim Erstellen eines Backups ist keine Option zum Angeben eines fehlenden Ordners für die Sicherung vorhanden |
Die Erstellung aller fehlenden Unterverzeichnisse unter dem angegebenen Sicherungspfad wurde korrigiert. |
|
Informatica Cloud Data Quality / Parameter „Miscellaneous (Verschiedenes)“: -connection.split und -connection.rename funktionieren nicht |
-connection.split auf Schemaebene und die „Miscellaneous“-Option -connection.rename wurden korrigiert. |
|
ThoughtSpot: NullPointerException im Zusammenhang mit ModelStatistics |
Das Problem wurde behoben. |
|
Informatica PowerCenter (Repository): java.lang.NullPointerException: Kann "MITI.sdk.MIRTransformationDataSet.getFeature(String) nicht aufrufen |
Das Problem wurde behoben. |