Zu Hauptinhalt springen Zu ergänzendem Inhalt springen

Neue Funktionen

Anwendungsintegration

Funktion Beschreibung
Neue Microservice-Konfiguration zum Überschreiben der Authentifizierungsaktivierung und -konfiguration

Sie können jetzt Parameter in einer zusätzlichen Eigenschaftendatei verwenden, um die Authentifizierungskonfiguration für BASIC- und JWT Bearer Token-Typen in cREST- und tRESTRequest-Komponenten zu überschreiben.

Diese Sicherheitskonfiguration und die Prometheus-Endpunktaktivierung in der Eigenschaftendatei kann überschrieben werden, indem Sie den relevanten Parameter in der Befehlszeile verwenden, wenn Sie den Microservice ausführen.

Weitere Informationen finden Sie unter Ausführen eines Microservice.
Neue Routenkomponente für Azure Service Bus verfügbar Die cAzureServiceBus-Komponente ist jetzt in Routen verfügbar, sodass Sie Nachrichten an den Azure Service Bus senden bzw. von diesem empfangene Nachrichten nutzen können.

Big Data

Funktion Beschreibung
Unterstützung für Dataproc 2.2 mit Spark Universal 3.x Sie können Ihre Spark-Jobs jetzt in einem Google Dataproc-Cluster unter Verwendung von Spark Universal mit Spark 3.x ausführen. Die Konfiguration erfolgt entweder in der Ansicht Spark Configuration (Spark-Konfiguration) Ihrer Spark-Jobs oder im Metadaten-Assistenten Hadoop Cluster Connection (Hadoop-Clusterverbindung).
Wenn Sie diesen Modus auswählen, ist Talend Studio mit Dataproc Version 2.1 und 2.2 kompatibel.
Ansicht Spark Configuration (Spark-Konfiguration) eines Spark-Batch-Auftrags mit hervorgehobener Dataproc 2.2-Version.
Availability-noteBeta
Unterstützung für CDP Private Cloud Base 7.3.1 mit Spark Universal 3.x
Sie können Ihre Spark-Jobs jetzt in einem CDP Private Cloud Base 7.3.1-Cluster mit JDK 17 unter Verwendung von Spark Universal mit Spark 3.x im Yarn-Cluster-Modus ausführen. Die Konfiguration erfolgt entweder in der Ansicht Spark Configuration (Spark-Konfiguration) Ihrer Spark-Jobs oder im Metadaten-Assistenten Hadoop Cluster Connection (Hadoop-Clusterverbindung).

Mit der Beta-Version dieser Funktion funktionieren Jobs mit Iceberg- und Kudu-Komponenten nicht.

Ansicht Spark Configuration (Spark-Konfiguration) eines Spark-Batch-Auftrags mit hervorgehobener CDP Private Cloud Base 7.3.1-Version.
Verbesserung der tS3Configuration zum Unterstützen von mehreren Buckets mit AWS Assume Role Sie können jetzt eine Rolle zu mehreren Buckets in Ihrem Job mit Assume Role (Rolle annehmen) in der tS3Configuration-Komponente hinzufügen.
Unterstützung für Schemaentwicklung in tIcebergTable in Spark-Batch-Jobs Neue Aktionen sind jetzt in der Eigenschaft Action on table (Aktion mit Tabellen) in der tIcebergTable-Komponente verfügbar: Add columns (Spalten hinzufügen), Alter columns (Spalten ändern), Drop columns (Spalten löschen), Rename columns (Spalten umbenennen) und Reorder columns (Spalten neu anordnen).
Neue Aktionen in der Dropdown-Liste in der Eigenschaft Action on table (Aktion mit Tabellen) hinzugefügt.

Datenintegration

Funktion Beschreibung

Unterstützung für OData API-Funktionen für SAP in Standard-Jobs

Neue SAP-Komponenten ermöglichen jetzt das Lesen und Schreiben von Daten in einem SAP OData-Webdienst:

  • Mit tSAPODataInput können Sie Daten in einem vorhandenen SAP OData-Webdienst lesen und die Abfrageparameter der Anfrage konfigurieren.
  • Mit tSAPODataOutput können Sie Datensätze eines vorhandenen SAP OData-Webdiensts einfügen, aktualisieren oder löschen.

Data Mapper

Funktion Beschreibung
DSQL-Map-Editor Die Unterstützung für den DSQL-Map-Editor ist jetzt allgemein verfügbar (GA).

Der DSQL-Map-Editor ermöglicht die Erstellung von Maps basierend auf Data Shaping Query Language.

Sie können genau wie Standard-Maps auch DSQL-Maps erstellen, um eine oder mehrere Eingabedateien einer oder mehreren Ausgabedateien zuzuordnen. Dabei werden alle von den Standard-Maps unterstützten Darstellungen verwendet. Weitere Informationen finden Sie unter Unterschiede zwischen Standard- und DSQL-Maps.

Neue Optionen zum Erstellen eines neuen parametrisierten Ausdrucks Neue Optionen sind jetzt im DSQL-Map-Editor zum Erstellen eines neuen parametrisierten Ausdrucks verfügbar:
  • In der Ansicht DSQL Parameterized Expressions (Parametrisierte DSQL-Ausdrücke) können Sie mit der rechten Maustaste in das linke Fenster klicken. Daraufhin wird die Option New parameterized expression (Neuer parametrisierter Ausdruck) angezeigt.
    Hervorgehobene Option New parameterized expression (Neuer parametrisierter Ausdruck) beim Rechtsklick in das linke Fenster der Ansicht DSQL Parameterized Expressions (Parametrisierter DSQL-Ausdruck).
  • In der Eingabe- und Ausgabestruktur können Sie mit der rechten Maustaste auf ein Element klicken, damit die neue Option DSQL Parameterized Expressions (Parametrisierte DSQL-Ausdrücke) angezeigt wird.
    Hervorgehobene Option DSQL Parameterized Expressions (Parametrisierte DSQL-Ausdrücke) bei Rechtsklick auf ein Element in der Ausgabestruktur.
Neue Option zum Speichern der Ergebnisse von Test Run (Testausführung) im Dateisystem in DSQL-Maps Die neue Option Execute Test Run to File (Testausführung in Datei ausführen) ist jetzt in der Ansicht Test Run (Testausführung) im DSQL-Map-Editor verfügbar. Damit können Sie die Ausgabeergebnisse Ihrer DSQL-Map im Dateisystem speichern.
Option Execute Test Run to File (Testausführung in Datei ausführen) in der Ansicht Test Run (Testausführung).

Datenqualität

Funktion Beschreibung
Validieren von Daten mithilfe von Validierungsregeln aus Qlik Talend Data Integration Mit der neuen Standardkomponente tDQRules können Sie Talend Studio mit Qlik Talend Data Integration verbinden und Validierungsregeln verwenden.

Hat diese Seite Ihnen geholfen?

Wenn Sie ein Problem mit dieser Seite oder ihrem Inhalt feststellen, sei es ein Tippfehler, ein ausgelassener Schritt oder ein technischer Fehler, informieren Sie uns bitte!