Zu Hauptinhalt springen Zu ergänzendem Inhalt springen

Neue Funktionen

Freigegebene Funktionen

Funktion Beschreibung

Unterstützung für dynamische Einstellungen in TCK-Komponenten

Alle Kontrollkästchen und Dropdown-Listen für TCK-Komponenten können jetzt auf der Registerkarte Dynamic settings (Dynamische Einstellungen) angepasst werden. Dabei gelten die folgenden Einschränkungen:
  • Die Kontrollkästchen und Dropdown-Listen mit abhängigen Parametern werden nicht unterstützt.
  • Die Kontrollkästchen tStatCatcher Statistics (StartCatcher-Statistik), Enable parallel execution (Parallele Ausführung aktivieren) und Show Information parameters (Informationsparameter anzeigen) werden nicht unterstützt.
  • Parameter, die Repository-Werte verwenden, werden nicht unterstützt.
  • Die Dropdown-Liste Component list (Komponentenliste) wird nur unterstützt, wenn sie vom Kontrollkästchen Use existing connection (Vorhandene Verbindung verwenden) abhängt, das aktiviert sein muss.
Weitere Informationen finden Sie unter Dynamic settings tab of components in a Job.

Unterstützung für Massenmigration von Datenbanktypen in DB-Komponenten für Datenintegrationsjobs

Sie können jetzt die Datenbankverbindung, die zentral im Ordner Metadata (Metadaten) abgelegt ist und in Datenintegrationsjobs wiederverwendet wird, zu einem anderen Datenbanktyp migrieren. Weitere Informationen finden Sie unter Migrating database connection.
InformationshinweisAnmerkung: Die Snowflake-Datenbank wird ab 8.0 R2024-10 unterstützt.
Dialogfeld „Database connection migration (Datenbankverbindungsmigration)“.

Big Data

Funktion Beschreibung
Verbesserte Spark Universal-Benutzeroberfläche Die Spark Universal-Benutzeroberfläche wurde geändert. Sie müssen jetzt zuerst die Runtime/mode environment (Laufzeit-/Modusumgebung) und dann die Version auswählen.
Unterstützung für Kubernetes mit Spark-Versionen 3.1.x bis 3.5.x Sie können jetzt Ihre Spark-Jobs im Kubernetes-Modus mit den Spark-Versionen 3.1.x bis 3.5.x ausführen. Die neue Option Spark 3.x wurde der Dropdown-Liste Version hinzugefügt. Die Konfiguration erfolgt entweder in der Ansicht Spark Configuration (Spark-Konfiguration) Ihrer Spark-Jobs oder im Metadaten-Assistenten Hadoop Cluster Connection (Hadoop-Clusterverbindung).
Registerkarte Spark Configuration (Spark-Konfiguration) des Spark-Batch-Auftrags mit der neuen Version Spark 3.x.
Availability-noteBeta
Unterstützung für Amazon EMR 7.x mit Spark Universal 3.5.x
Sie können Ihre Spark-Jobs jetzt in einem Amazon EMR-Cluster unter Rückgriff auf Spark Universal mit Spark 3.5.x im Yarn-Cluster-Modus ausführen. Die Konfiguration erfolgt entweder in der Ansicht Spark Configuration (Spark-Konfiguration) Ihrer Spark-Jobs oder im Metadaten-Assistenten Hadoop Cluster Connection (Hadoop-Clusterverbindung).

Wenn Sie diesen Modus auswählen, ist Talend Studio mit der Version 7.x von Amazon EMR kompatibel.

Datenintegration

Funktion Beschreibung

tOpenAIClient-Komponente in Standard-Jobs (GA)

Die tOpenAIClient-Komponente wird ab 8.0 R2023-09 generell verfügbar.

Weitere Informationen finden Sie in der tOpenAIClient-Dokumentation.

Neue Solr-Komponenten in Standard-Jobs

Die folgenden Solr-Komponenten sind jetzt zum Lesen und Schreiben von Daten in einem Apache Solr-Webdienst verfügbar:
  • Mit tSolrInput können Sie sich bei einem Solr-Webdienst authentifizieren und von Solr-Sammlungen benötigte Informationen über Abfragen abrufen.
  • tSolrOutput ermöglicht das Einfügen, Upsert oder Löschen von Daten in einem Solr-Core.

Weitere Informationen finden Sie in der Dokumentation von Solr.

Neue tPineconeClient-Komponente in Standard-Jobs

Die neue tPineconeClient-Komponente ermöglicht das Upsert, Abfragen, Abrufen, Aktualisieren oder Löschen von Datensätzen in Pinecone-Index-Namespaces.

Weitere Informationen finden Sie in der Dokumentation von tPinconeClient.

Data Mapper

Funktion Beschreibung
Unterstützung für den Map-Export als CSV- oder Excel-Dateien Mit der neuen Option Maps as CSV (Maps als CSV) können Sie jetzt eine Standard-Map als CSV-Datei exportieren. Die exportierte Datei ist auch mit Excel kompatibel.

Weitere Informationen finden Sie unter Exporting a map.

Dialogfeld Export Maps as CSV (Maps als CSV exportieren).
Verbesserung der Ausgabenamensgenerierung mit Abflachungs-Map Beim Erstellen einer Abflachungs-Map mit mehreren Ausgaben wurde die Ausgabenbenennung verbessert Die generierte Ausgabebenennung erfolgt jetzt entsprechend dem Eingabequellelement.

Weitere Informationen zu den Benennungskonventionen finden Sie unter Flattened structure naming.

Hat diese Seite Ihnen geholfen?

Wenn Sie ein Problem mit dieser Seite oder ihrem Inhalt feststellen, sei es ein Tippfehler, ein ausgelassener Schritt oder ein technischer Fehler, informieren Sie uns bitte!