Neue Funktionen
Big Data
Funktion | Beschreibung |
---|---|
Unterstützung für Massenmigration der Hadoop-Distribution für Big Data Jobs | Sie können jetzt die Hadoop-Distribution zentralisiert im Repository migrieren und in Big Data Jobs wiederverwenden. Weitere Informationen finden Sie unter Migrating Hadoop distribution. |
Neue MapRDB-Komponenten für HPE Datafabric 7.7 in Standard-Jobs | Die folgenden MapRDB-Komponenten sind jetzt in Standard-Jobs verfügbar, wenn Sie den HPE Datafabric 7.7-Cluster verwenden:
Die Parameter Distribution und Version wurden aus der Ansicht Basic settings (Basiseinstellungen) entfernt. |
Unterstützung für Zeitreise mit Iceberg-Komponenten in Standard-Jobs | Die Zeitreise-Funktion ist jetzt in der tIcebergInput-Komponente in Standard-Jobs verfügbar. Das neue Kontrollkästchen Use time travel (Zeitreise verwenden) in der Ansicht Basic settings (Basiseinstellungen) ermöglicht es Ihnen, Daten aus einer Iceberg-Tabelle zu lesen, indem Sie entweder ein Datum und eine Uhrzeit oder eine Snapshot-ID angeben. Zudem wird der Parameter SQL query (SQL-Abfrage) zu einem Kontrollkästchen Use custom SQL (Benutzerdefinierte SQL verwenden) geändert. |
Unterstützung für Zeitreise mit Iceberg-Komponenten in Spark-Batch-Aufträgen | Die Zeitreise-Funktion ist jetzt in der tIcebergInput-Komponente in Spark-Batch-Aufträgen verfügbar. Das neue Kontrollkästchen Use time travel (Zeitreise verwenden) in der Ansicht Basic settings (Basiseinstellungen) ermöglicht es Ihnen, Daten aus einer Iceberg-Tabelle zu lesen, indem Sie einen Branch, ein Tag, ein Datum und eine Uhrzeit oder eine Snapshot-ID angeben. |
Unterstützung für Amazon EMR 7.x mit Spark Universal 3.5.x | Sie können Ihre Spark-Jobs jetzt in einem Amazon EMR-Cluster unter Rückgriff auf Spark Universal mit Spark 3.5.x im Yarn-Cluster-Modus ausführen. Die Konfiguration erfolgt entweder in der Ansicht Spark Configuration (Spark-Konfiguration) Ihrer Spark-Jobs oder im Metadaten-Assistenten Hadoop Cluster Connection (Hadoop-Clusterverbindung). Wenn Sie diesen Modus auswählen, ist Talend Studio mit der Version 7.x von Amazon EMR kompatibel. Beachten Sie, dass ein Problem mit Jobs auftritt, die Kinesis-Komponenten unter der Version Amazon EMR 7.x verwenden. Wenn Sie tKinesisInput verwenden, ist die Ausgabe leer. |
Kontinuierliche Integration (CI = Continuous Integration)
Funktion | Beschreibung |
---|---|
Talend CI Builder aktualisiert auf Version 8.0.19 |
Talend CI Builder wurde von der Version 8.0.18 auf die Version 8.0.19 aktualisiert. Verwenden Sie ab dieser monatlichen Version Talend CI Builder 8.0.19 in Ihren CI-Befehlen (Continuous Integration: Kontinuierliche Integration) oder Pipeline-Skripten bis zur Veröffentlichung einer neuen Version von Talend CI Builder. |
Datenintegration
Funktion | Beschreibung |
---|---|
Neue tEmbeddingAI-Komponente in Standard-Jobs (Beta) |
Die neue tEmbeddingAI-Komponente ist jetzt in Standard-Jobs verfügbar. Damit können Sie die Einbettung von Modellen nutzen, um effizient Daten mit KI zu verarbeiten. |
Unterstützung für die Atlas-Vektorsuche für MongoDB-Komponenten in Standard-Jobs |
MongoDB-Komponenten können jetzt die Atlas-Vektorsuchfunktionen verwenden. |
Neue Option zum Anpassen des Headernamens für tHTTPClient in Standard-Jobs |
Die Optionen Use custom authorization token header (Benutzerdefinierten Autorisierungs-Token-Header verwenden) und Use custom token prefix (Benutzerdefiniertes Token-Präfix verwenden) wurden zur tHTTPClient-Komponente hinzugefügt, und Sie können einen benutzerdefinierten Namen und ein Präfix für den Autorisierungs-Token-Header eingeben, wenn Sie den OAuth 2.0-Authentifizierungstyp verwenden. |
JTOpen wurde auf Version 20.x für AS400-Komponenten in Standard-Jobs aktualisiert |
Die AS400-Komponenten verwenden jetzt Version 20.x der JTOpen-Bibliothek. |
Data Mapper
Funktion | Beschreibung |
---|---|
Neue Datenbankfunktionen in DSQL-Map | Sie können jetzt bei der Arbeit mit Datenbanken die folgenden Funktionen verwenden:
|
Unterstützung für Block mit der WITH-Klausel in DSQL-Map | Sie können jetzt einen Block nach der WITH-Klausel verwenden. Beispiel:
|
Unterstützung für mehrere Schlüssel mit der GROUP BY-Klausel in DSQL-Map | Sie können jetzt eine kommagetrennte Liste von mehreren Schlüsseln in der GROUP BY-Klausel verwenden. Beispiel:
|
Sytaxaktualisierung für Zeichenfolgen-Literal in DSQL-Map | Die Syntax für den Zeichenfolgen-Datentyp wurde aktualisiert:
|
Unterstützung für mehrere Sammlungen nach FROM- und UNNEST-Klauseln in DSQL-Map | Sie können jetzt mehr als eine Sammlung nach FROM- oder UNNEST-Klauseln angeben. Beispiel:
|
Datenqualität
Funktion | Beschreibung |
---|---|
Neue JSON-Validierungskomponente | Sie können jetzt JSON-Spalten in Standard-Jobs mithilfe der tJSONValidator-Komponente validieren. |
AS400 | Die Versionen 7R3 und höher werden jetzt unterstützt. |