Zu Hauptinhalt springen Zu ergänzendem Inhalt springen

Neue Funktionen

Freigegebene Funktionen

Funktion Beschreibung
Unterstützung für Migration zwischen Snowflake und anderen Datenbanktypen in DB-Komponenten für Datenintegrationsjobs Sie können jetzt die Datenbankverbindungen zwischen Snowflake und anderen Datenbanktypen in Datenintegrationsjobs migrieren. Weitere Informationen finden Sie unter Migrating database connection.

Anwendungsintegration

Funktion Beschreibung
Neue Parser- und Writer-Komponenten für CSV in Routen Die neuen Komponenten cCsvParser und cCsvWriter sind jetzt in Routen verfügbar, um Daten im CSV-Format zu analysieren und zu schreiben. Weitere Informationen finden Sie unter cCsvParser und cCsvWriter.
Neue cKafkaCommit-Komponente in Routen Die neue cKafkaCommit-Komponente ist jetzt in Routen zum Auslösen von Übergaben an den Apache Kafka-Nachrichtenbroker verfügbar. Weitere Informationen finden Sie unter cKafkaCommit.
Optimierung von Kafka-Komponenten in Routen: Vereinfachte Verwendung für Schemaregistrierung Für jede Route im Zusammenhang mit cKafka werden automatisch die entsprechenden Abhängigkeiten konfiguriert, um (De)serialisierung, Konvertierung und Validierung von Nachrichten zu unterstützen.
Unterstützung der Verwendung der Studio-Ressource zum Validieren von Daten in cJsonValidator und cXmlValidator Sie können jetzt das Schema aus dem Studio-Repository in den Komponenten cJsonValidator und cXmlValidator zur Validierung von Daten verwenden.
Ansicht der Basiseinstellungen für cJsonValidator.
Ansicht der Basiseinstellungen für cXmlValidator.

Vereinfachung der Aggregationsstrategie in mehreren Routenkomponenten

Eine Liste der vordefinierten Aggregationsstrategien ist jetzt in den Komponenten cAggregate, cMulticast, cSplitter und cRecipientList verfügbar:
  • UseOriginalAggregationStrategy
  • UseLatestAggregationStrategy
  • GroupedMessageAggregationStrategy
  • GroupedExchangeAggregationStrategy
  • GroupedBodyAggregationStrategy
Ansicht der Basiseinstellungen für cAggregate.

Big Data

Funktion Beschreibung
Unterstützung der lokalen Zeitzone in tFileInputParquet und tFileOutputParquet Sie können jetzt Ihre lokale Zeitzone anstelle der UTC-Zeitzone für die folgenden Parquet-Komponenten auf der Registerkarte Advanced Settings (Erweiterte Einstellungen)für Ihre Spark-Batch-Aufträge auswählen:
  • Für tFileInputParquet: Do not convert dates to UTC (Datum nicht in UTC konvertieren)
  • Für tFileOutputParquet: Read dates in local timezone (Datum in lokaler Zeitzone lesen)
Option Read dates in local timezone (Daten in lokaler Zeitzone lesen) in der Ansicht Advanced settings (Erweiterte Einstellungen) von tFileInputParquet.

Datenintegration

Funktion Beschreibung
Unterstützung für IBM DB2 Version 13 in Standard-Jobs Talend Studio unterstützt jetzt IBM DB2 Version 13 in Standard-Jobs.
Neue Option in Snowflake-Komponenten, um benutzerdefinierte Domänen-URLs in Standard-Jobs zu definieren Die neue Option URL suffix (URL-Suffix) wurde zu Snowflake-Komponenten hinzugefügt. Damit können Sie eine gewünschte benutzerdefinierte Domänen-URL für Snowflake eingeben.
Verbesserte Fehlerbehandlung für tELTSAPMap und tSAPTableInput in Standard-Jobs Die neuen Optionen Timeout for the data file polling (Zeitüberschreitung für Datendateiabfrage) und Abort background Job and remove generated files on error (Bei Fehler Hintergrundjob abbrechen und generierte Dateien entfernen) wurden zu den Komponenten tELTSAPMap und tSAPTableInput hinzugefügt, um das Komponentenverhalten bei Ausnahmen zur Laufzeit zu verbessern.

Hat diese Seite Ihnen geholfen?

Wenn Sie ein Problem mit dieser Seite oder ihrem Inhalt feststellen, sei es ein Tippfehler, ein ausgelassener Schritt oder ein technischer Fehler, informieren Sie uns bitte!