Zu Hauptinhalt springen Zu ergänzendem Inhalt springen

Neue Funktionen

Freigegebene Funktionen

Funktion Beschreibung
Migration von der Amazon Web Services SDK-Version 1.x zur SDK-Version 2.x Nach dem 31. Dezember 2025 stellt Amazon Web Services den Support für das AWS SDK for Java 1.x ein. Aus diesem Grund wurden die Standard- und Big Data Batch-Komponenten, die das SDK verwenden, in der Release R2025-08 auf die SDK-Version 2.x aktualisiert, um weiterhin Sicherheit und Kompatibilität zu gewährleisten.
Wichtige Änderungen:
  • Amazon DynamoDB-Komponenten: Die Big Data Batch-Komponenten tDynamoDBConfiguration, tDynamoDBInput und tDynamoDBOutput wurden ohne Verhaltensänderungen zu SDK v2.x migriert. Vorhandene Data Integration-Komponenten, die SDK v1.x verwenden, stehen in Talend Studio weiterhin zur Verfügung, sind jedoch nun veraltet und wurden in tDynamoDBV1Input und tDynamoDBV1Output umbenannt.
    Neu eingeführte Data Integration-Komponenten verwenden SDK v2.x, wodurch es zu Änderungen im Verhalten und auf der Benutzeroberfläche kommt.
    • tdynamoDBInput: Bei Verwendung von DynamoDB-Spalten mit dem Typ Map muss der Spaltentyp auf String (Zeichenfolge) in Talend Studiofestgelegt werden. Die Option Server URL (Server-URL) befindet sich unter Advanced settings (Erweiterte Einstellungen).
    • tdynamoDBOutput: Bei Verwendung von DynamoDB-Spalten mit dem Typ Map muss die eingehende Spalte auf String (Zeichenfolge) in Talend Studio und die Ausgabespalte auf Object (Objekt) lauten. Bei Upsert-Aktionen dürfen Spaltennamen keinen Punkt (".") enthalten, das dieses Zeichen beim Aktualisieren von Elementen als Trennzeichen verwendet wird. Die Option Guess schema (Schema ermitteln) ruft nur Partitions- und Sortierschlüssel ab. Die Option Server URL (Server-URL) befindet sich unter Advanced settings (Erweiterte Einstellungen).
  • Amazon SQS-Komponenten: Alle SQS-Komponenten wurden ohne Verhaltensänderungen zu SDK v2.x migriert.
  • Amazon S3-Komponenten: Alle S3-Komponenten wurden zu SDK v2.x migriert, wobei bestimmte Verhaltens- und Optionsänderungen eingeführt wurden:
    • Die Optionen Use a custom endpoint (Benutzerdefinierten Endpunkt verwenden) und Client-side encryption (Clientseitige Verschlüsselung) wurden allen S3-Komponenten hinzugefügt. Dynamische Einstellungsoptionen wurden entfernt.
    • tS3BucketCreate: Die Option Access control (Zugriffskontrolle) wurde aus den Advanced settings (Erweiterte Einstellungen) entfernt. Die Parameter Aws-Exec-Read und Log-Delivery-Write wurden aus der Liste Canned Access control (Vorgefertigte Zugriffskontrolle) entfernt.
    • tS3Connection: In der Option Config client (Konfig.-Client) (Advanced settings (Erweiterte Einstellungen)) wird der Parameter Max ErrorRetry durch Retry mode ersetzt. Die Parameter Socket Receive Buffersize Hint, Socket Send Buffersize Hint und Explicitly specify signature wurden entfernt.

      In der Option Check S3 accessibility (S3-Zugänglichkeit überprüfen) behält die Methode By account owner (Nach Kontoinhaber) denselben Namen bei, wird aber durch den Befehl GetBucketAcl ersetzt.

    • tS3Copy: Die Option Multipart threshold (Multipart-Schwellenwert) und Part size (Teilgröße) wurden entfernt (Advanced settings (Erweiterte Einstellungen)).
    • tS3List: Eine neue Option vom Typ Get owner information (Inhaberinformationen abrufen) wurde zu den Advanced settings (Erweiterte Einstellungen) hinzugefügt.
    • tS3Put: Die Option Access control (Zugriffskontrolle) wurde aus den Advanced settings (Erweiterte Einstellungen) entfernt.

Informationen zu den Änderungen zwischen den SDK-Versionen finden Sie in der AWS-Dokumentation.

Unterstützung weiterer ELTTeradata-Komponenten für Job-Herkunft Talend Studio kann jetzt Datensätze und Herkunft für ELTTeradata-Komponenten in Qlik Cloud generieren.
Möglichkeit zur erneuten Verbindung mit einem dezentralen Projekt bei einem Verbindungs-Timeout Talend Studio kann jetzt nach einem Verbindungsabbruch eine erneute Verbindung zu einem dezentralen Projekt herstellen.

Anwendungsintegration

Funktion Beschreibung

Neue KI-Beispiele wurden den Anwendungsintegrationsdemos hinzugefügt

Neue KI-Beispiele für Routen wurden den Anwendungsintegrationsdemos hinzugefügt.

Neue cTextTemplate-Komponente für Routen

Die neue cTextTemplate-Komponente ist jetzt in Routen verfügbar, mit der sie Nachrichten mithilfe von Vorlagen verarbeiten können.

Verbesserung von cRabbitMQ zur Unterstützung der Option zum automatischen Deklarieren und kontextfähiger Benutzeroberflächenfelder

Die Option Auto declare (Automatisch deklarieren) ist jetzt in der cRabbitMQ-Komponente verfügbar. Mithilfe dieser Option können Sie die Bindung zwischen Austausch, Warteschlange und Routing-Schlüssel automatisch deklarieren.

Sie können jetzt alle Parameter von cRabbitMQ mithilfe von Kontextvariablen definieren.

Ansicht Basic settings (Basiseinstellungen) von cRabbitMQ.

Verbesserung von cSetHeader zur Unterstützung der Reihenfolge zum Entfernen von Headern

Die Reihenfolge zum Entfernen und Hinzufügen von Headern kann jetzt in cSetHeader mit der neuen Option vom Typ Cleanup order (Bereinigungsreihenfolge) konfiguriert werden.

Ansicht Basic settings (Basiseinstellungen) von cSetHeader.

Verbesserung von cMail für IMAP/POP3 zur Verbesserung der Filterung und Konfigurationsbereinigung

Die Konfigurationsoptionen für die Protokolle IMAP und POP3 in cMail werden aktualisiert:
  • Die Parameter Subject (Betreff), From (Von), To (An), CC und BCC, die für den Empfang von E-Mails ungültig sind, wurden entfernt.
  • Die Optionen Subject Filter (Filtern nach Betreff), From Filter (Filtern nach Absender), To Filter (Filtern nach Empfänger), Check Interval (Scheckintervall), Fetch Size (Abrufgröße), Unseen only (Nur nicht gesehene Elemente) und Delete after processed (Nach Verarbeitung löschen) zum Filtern und Verarbeiten eingehender E-Mails wurden hinzugefügt.
Ansicht Basic settings (Basiseinstellungen) von cMail.

Big Data

Funktion Beschreibung
Unterstützung für CDP Private Cloud Base 7.3.1 mit Spark Universal 3.x Sie können Ihre Spark-Jobs jetzt in einem CDP Private Cloud Base 7.3.1-Cluster mit JDK 17 unter Verwendung von Spark Universal mit Spark 3.x im Yarn-Cluster-Modus ausführen. Die Konfiguration erfolgt entweder in der Ansicht Spark Configuration (Spark-Konfiguration) Ihrer Spark-Jobs oder im Metadaten-Assistenten Hadoop Cluster Connection (Hadoop-Clusterverbindung).
Ansicht Spark Configuration (Spark-Konfiguration) eines Spark Batch-Jobs.

Unterstützung für den Cloudera-Laufzeitmodus auf der Spark Universal-Benutzeroberfläche

Sie können den Cloudera-Laufzeitmodus für Ihre Spark-Jobs auf der Spark Universal-Benutzeroberfläche jetzt mit ausschließlicher Unterstützung für Spark 3.x verwenden.
Cloudera-Modus auf der Spark Universal-Benutzeroberfläche.

Datenintegration

Funktion Beschreibung

Unterstützung für die Salesforce API-Version 64 für Salesforce-Komponenten in Standard-Jobs

Die Salesforce-Komponenten wurden aktualisiert, um die API-Version 64 zu unterstützen und so die Kompatibilität mit den aktuellen Salesforce-Funktionen und -Erweiterungen sicherzustellen.

Unterstützung für Azure Database for MySQL – Flexible Server für MySQL-Komponenten in Standard-Jobs

Die MySQL-Komponenten wurden aktualisiert, um Azure Database for MySQL – Flexible Server zu unterstützen und so die Cloud-Kompatibilität sowie die Bereitstellungsoptionen zu erweitern.

Neue Option zum Konvertieren von numerischen NULL-Werten in 0 für tSAPADSOInput in Standard-Jobs

Die neue Option Convert NULL numeric values to zero (Numerische NULL-Werte in 0 konvertieren) wurde der tSAPADSOInput-Komponente hinzugefügt, um automatische Konvertierung von nummerischen NULL-Feldern in 0 während der Datenextraktion zu ermöglichen.

Authentifizierungstoken werden jetzt im Header gesendet, um die aktualisierten Marketo-API-Anforderungen in Standard-Jobs zu erfüllen

Die Marketo-Komponenten wurden aktualisiert, um das Authentifizierungstoken im Header statt in Abfrageparametern zu senden und somit die Einhaltung der aktuellen Marketo-API-Anforderungen sicherzustellen.

Data Mapper

Funktion Beschreibung
Unterstützung für DSQL-Map-Editor als Standard-Map-Editor Der DSQL-Map-Editor fungiert jetzt als Standard-Map-Editor in Talend Data Mapper.

Wenn Sie eine neue Map erstellen oder mit Datenmapping-Komponenten arbeiten, wird die DSQL map (DSQL-Map) standardmäßig ausgewählt. Die Standard map (Standard-Map) kann jedoch weiterhin manuell ausgewählt werden.

Unterstützung für rekursive parametrisierte Ausdrücke in DSQL-Maps Die parametrisierten Ausdrücke unterstützen jetzt Rekursion. Dies bedeutet, dass Sie einen parametrisierten Ausdruck innerhalb desselben parametrisierten Ausdrucks aufrufen können.
Unterstützung für die Funktion Test run (Testausführung) in ausgerollten und geteilten Elementen in DSQL-Maps Sie können jetzt die Option Test Run (Testausführung) in bestimmten ausgerollten und geteilten Elementen in DSQL-Maps verwenden.
Funktion Test Run (Testausführung), die durch Rechtsklicken auf ein ausgerolltes Element in einer DSQL-Map hervorgehoben wird.
Möglichkeit zum Ziehen und Ablegen von Funktionen und Map-Elementen in parametrisierten Ausdrücken in DSQL-Maps Sie können jetzt eine Funktion und ein Eingabe-Map-Element in den Inhalt eines parametrisierten Ausdrucks ziehen und dort ablegen.
Möglichkeit zum Ziehen und Ablegen parametrisierter Ausdrücke im Ausdruckseditor in DSQL-Maps Sie können einen parametrisierten Ausdruck jetzt in den Ausdruckseditor Ihrer DSQL-Map ziehen und dort ablegen. Das Verhalten entspricht demjenigen beim Ziehen und Ablegen einer Funktion im Ausdruckseditor.
Parametrisierter Ausdruck genAddress, der im Fragmenteditor agbelegt wird.
Neue Optionen zum Kopieren und Einfügen von parametrisierten Ausdrücken in DSQL-Maps Sie können einen oder mehrere parametrisierte Ausdrücke kopieren und diese entweder in Ihre aktuelle DSQL-Map oder in eine andere DSQL-Map einfügen. Die Optionen Name, Description (Beschreibung), Parameters (Parameter) und Expression (Ausdruck) werden kopiert.

Wenn ein parametrisierter Ausdruck mit demselben Namen bereits in der Ziel-Map vorhanden ist, wird die Kopie automatisch mit einem Suffix umbenannt, wie z. B. genAddress_2.

Die Optionen Copy (Kopieren) und Paste (Einfügen), die durch Rechtsklicken auf den parametrisierten Ausdruck genAddress hervorgehoben werden.
Die neue Option Create Parameterized Expression (Parametrisierten Ausdruck erstellen) ist für den Fehler Unknown function (Unbekannte Funktion) in DSQL-Maps verfügbar Enthält eine DSQL-Map ein Fragment mit einem Fehler vom Typ Unknown function (Unbekannte Funktion), steht jetzt beim Rechtsklicken auf den Fehler die Funktion Create Parameterized Expression (Parametrisierten Ausdruck erstellen) zur Verfügung, mit der Sie einen parametrisierten Ausdruck mit dem unbekannten Namen erstellen können.
Neue Option Create Parameterized Expression (Parametrisierten Ausdruck erstellen).

Hat diese Seite Ihnen geholfen?

Wenn Sie ein Problem mit dieser Seite oder ihrem Inhalt feststellen, sei es ein Tippfehler, ein ausgelassener Schritt oder ein technischer Fehler, informieren Sie uns bitte!