Zu Hauptinhalt springen Zu ergänzendem Inhalt springen

Neue Funktionen

Freigegebene Funktionen

Funktion Beschreibung
Unterstützung für Bearer Token-Authentifizierung zur Verbindung mit dem JFrog Artifactory-Repository Sie können jetzt den Bearer Token-Authentifizierungstyp zur Verbindung mit dem JFrog Artifactory-Repository nutzen.

Diese Funktion wird vollständig verfügbar, nachdem die Bearer Token-Authentifizierung in Talend Administration Center in einer zukünftigen monatlichen Release ebenfalls unterstützt wird.

Big Data

Funktion Beschreibung
Unterstützung für Massenmigration der Hadoop-Distribution für Big Data Jobs Sie können jetzt die Hadoop-Distribution zentralisiert im Repository migrieren und in Big Data Jobs wiederverwenden. Weitere Informationen finden Sie unter Migrating Hadoop distribution.
Dialogfeld „Distribution migration (Distributionsmigration)“.
Neue MapRDB-Komponenten für HPE Datafabric 7.7 in Standard-Jobs Die folgenden MapRDB-Komponenten sind jetzt in Standard-Jobs verfügbar, wenn Sie den HPE Datafabric 7.7-Cluster verwenden:
  • tMapRDBClose
  • tMapRDBConnection
  • tMapRDBInput
  • tMapRDBOutput
  • tMapROjaiInput
  • tMapROjaiOutput

Die Parameter Distribution und Version wurden aus der Ansicht Basic settings (Basiseinstellungen) entfernt.

Unterstützung für Zeitreise mit Iceberg-Komponenten in Standard-Jobs Die Zeitreise-Funktion ist jetzt in der tIcebergInput-Komponente in Standard-Jobs verfügbar. Das neue Kontrollkästchen Use time travel (Zeitreise verwenden) in der Ansicht Basic settings (Basiseinstellungen) ermöglicht es Ihnen, Daten aus einer Iceberg-Tabelle zu lesen, indem Sie entweder ein Datum und eine Uhrzeit oder eine Snapshot-ID angeben.

Zudem wird der Parameter SQL query (SQL-Abfrage) zu einem Kontrollkästchen Use custom SQL (Benutzerdefinierte SQL verwenden) geändert.

Ansicht Basic settings (Basiseinstellungen) von tIcebergInput . Die neuen Parameter für Zeitreise und SQL-Abfrage in Standard-Jobs sind hervorgehoben.
Unterstützung für Zeitreise mit Iceberg-Komponenten in Spark-Batch-Aufträgen Die Zeitreise-Funktion ist jetzt in der tIcebergInput-Komponente in Spark-Batch-Aufträgen verfügbar. Das neue Kontrollkästchen Use time travel (Zeitreise verwenden) in der Ansicht Basic settings (Basiseinstellungen) ermöglicht es Ihnen, Daten aus einer Iceberg-Tabelle zu lesen, indem Sie einen Branch, ein Tag, ein Datum und eine Uhrzeit oder eine Snapshot-ID angeben.
Ansicht Basic settings (Basiseinstellungen) von tIcebergInput. Der neue Parameter für Zeitreise in Spark-Batch-Aufträgen ist hervorgehoben.
Unterstützung für Amazon EMR 7.x mit Spark Universal 3.5.x Sie können Ihre Spark-Jobs jetzt in einem Amazon EMR-Cluster unter Rückgriff auf Spark Universal mit Spark 3.5.x im Yarn-Cluster-Modus ausführen. Die Konfiguration erfolgt entweder in der Ansicht Spark Configuration (Spark-Konfiguration) Ihrer Spark-Jobs oder im Metadaten-Assistenten Hadoop Cluster Connection (Hadoop-Clusterverbindung).

Wenn Sie diesen Modus auswählen, ist Talend Studio mit der Version 7.x von Amazon EMR kompatibel.

Beachten Sie, dass ein Problem mit Jobs auftritt, die Kinesis-Komponenten unter der Version Amazon EMR 7.x verwenden. Wenn Sie tKinesisInput verwenden, ist die Ausgabe leer.

Kontinuierliche Integration (CI = Continuous Integration)

Funktion Beschreibung

Talend CI Builder aktualisiert auf Version 8.0.19

Talend CI Builder wurde von der Version 8.0.18 auf die Version 8.0.19 aktualisiert.

Verwenden Sie ab dieser monatlichen Version Talend CI Builder 8.0.19 in Ihren CI-Befehlen (Continuous Integration: Kontinuierliche Integration) oder Pipeline-Skripten bis zur Veröffentlichung einer neuen Version von Talend CI Builder.

Datenintegration

Funktion Beschreibung
Availability-noteBeta

Neue tEmbeddingAI-Komponente in Standard-Jobs (Beta)

Die neue tEmbeddingAI-Komponente ist jetzt in Standard-Jobs verfügbar. Damit können Sie die Einbettung von Modellen nutzen, um effizient Daten mit KI zu verarbeiten.

Unterstützung für die Atlas-Vektorsuche für MongoDB-Komponenten in Standard-Jobs

MongoDB-Komponenten können jetzt die Atlas-Vektorsuchfunktionen verwenden.

Neue Option zum Anpassen des Headernamens für tHTTPClient in Standard-Jobs

Die Optionen Use custom authorization token header (Benutzerdefinierten Autorisierungs-Token-Header verwenden) und Use custom token prefix (Benutzerdefiniertes Token-Präfix verwenden) wurden zur tHTTPClient-Komponente hinzugefügt, und Sie können einen benutzerdefinierten Namen und ein Präfix für den Autorisierungs-Token-Header eingeben, wenn Sie den OAuth 2.0-Authentifizierungstyp verwenden.

JTOpen wurde auf Version 20.x für AS400-Komponenten in Standard-Jobs aktualisiert

Die AS400-Komponenten verwenden jetzt Version 20.x der JTOpen-Bibliothek.

Data Mapper

Funktion Beschreibung
Neue Datenbankfunktionen in DSQL-Map Sie können jetzt bei der Arbeit mit Datenbanken die folgenden Funktionen verwenden:
  • databaseLookup zum Abrufen von Werten aus einer Datenbank
  • databaseLookupAndUpdate zum Abrufen von Werten aus einer Datenbank und Aktualisieren dieser Werte
  • databaseUpdateAndLookup zum Aktualisieren von Werten aus einer Datenbank und Abrufen dieser Werte
Unterstützung für Block mit der WITH-Klausel in DSQL-Map Sie können jetzt einen Block nach der WITH-Klausel verwenden.
Beispiel:
WITH $default_colors = {
   foreground = 'black',
   background = 'white'
}
Unterstützung für mehrere Schlüssel mit der GROUP BY-Klausel in DSQL-Map Sie können jetzt eine kommagetrennte Liste von mehreren Schlüsseln in der GROUP BY-Klausel verwenden.
Beispiel:
FROM customer
GROUP BY rating AS r, address.zipcode AS zip
Sytaxaktualisierung für Zeichenfolgen-Literal in DSQL-Map Die Syntax für den Zeichenfolgen-Datentyp wurde aktualisiert:
  • Zeichenfolgen sind durch einzelne oder doppelte Anführungszeichen abgetrennt
  • CR, NL, LF sind in einer Zeichenfolge in Anführungszeichen nicht zulässig
  • \ wird als Escape-Zeichen für ein Anführungszeichen in einer Zeichenfolge verwendet
  • Die folgenden Sequenzen können als Escape-Sequenzen verwendet werden:
    • \n
    • \r
    • \f
    • \t
    • \b
    • \/
    • \' im Fall einer Zeichenfolge mit einfachen Anführungszeichen
    • \" im Fall einer Zeichenfolge mit doppelten Anführungszeichen
Unterstützung für mehrere Sammlungen nach FROM- und UNNEST-Klauseln in DSQL-Map Sie können jetzt mehr als eine Sammlung nach FROM- oder UNNEST-Klauseln angeben.
Beispiel:
FROM customer AS c, order AS o
SELECT { c.custid, o.orderno }

Datenqualität

Funktion Beschreibung
Neue JSON-Validierungskomponente Sie können jetzt JSON-Spalten in Standard-Jobs mithilfe der tJSONValidator-Komponente validieren.
AS400 Die Versionen 7R3 und höher werden jetzt unterstützt.

Hat diese Seite Ihnen geholfen?

Wenn Sie ein Problem mit dieser Seite oder ihrem Inhalt feststellen, sei es ein Tippfehler, ein ausgelassener Schritt oder ein technischer Fehler, informieren Sie uns bitte!