Zu Hauptinhalt springen Zu ergänzendem Inhalt springen

Neue Funktionen

Freigegebene Funktionen

Funktion Beschreibung
Neue Such-Engine zum Filtern von Repository-Elementen Sie können jetzt Repository-Einträge filtern, indem Sie das Suchfeld oben in der Baumstrukturansicht Repository verwenden.
Repository-Suchfeld.
Perspektivenname wird standardmäßig angezeigt Die Namen der geöffneten Perspektiven werden jetzt standardmäßig in der oberen rechten Ecke von Talend Studio angezeigt.
Perspektivenname wird standardmäßig angezeigt.

Anwendungsintegration

Funktion Beschreibung
Neue cAzureEventHubs- und cAzureConnection-Komponenten in Routen Die neuen cAzureEventHubs- und cAzureConnection-Komponenten sind jetzt in Routen verfügbar. Damit können Sie Nachrichten an Azure Event Hubs senden oder von diesen empfangen.
Availability-noteBeta
Neue cReplicateEnvelope-Komponente in Routen (Beta)
Die neue cReplicateEnvelope-Komponente ist jetzt in der Beta-Version in Routen verfügbar. Damit können Sie von Qlik Replicate erstellte Nachrichten decodieren.

Big Data

Funktion Beschreibung
Availability-noteBeta
Unterstützung für Unity Catalog
Unity Catalog wird jetzt in Spark-Batch-Aufträgen unterstützt, wenn Sie Spark Universal 3.4.x mit Databricks 13.3 LTS und Spark Universal 3.x mit Databricks 15.4 LTS verwenden.

Die Konfiguration erfolgt entweder in der Ansicht Spark Configuration (Spark-Konfiguration) Ihrer Spark-Batch-Aufträge oder im Metadaten-Assistenten Hadoop Cluster Connection (Hadoop-Clusterverbindung).

Parameter Enable Unity Catalog (Unity Catalog aktivieren) ist im Metadaten-Assistenten der Hadoop Cluster Connection (Hadoop-Clusterverbindung) hervorgehoben.

Sie können Unity Catalog auch in Verarbeitungs- und Extrahierungskomponenten konfigurieren, aber auch in allen Eingabe- und Ausgabekomponenten, die in Spark-Batch-Aufträgen verfügbar sind, indem Sie den vollständigen Pfad zu Unity Catalog im Parameter Folder (Ordner) mit Katalog-, Schema- und Volume-Namen angeben.

Beachten Sie, dass nur die Komponenten, die die Dataset (DS) API verwenden, für Unity Catalog unterstützt werden. Mit der Betaversion dieser Funktion wird keine Unterstützung für Hive-Komponenten geboten.

Parameter Folder (Ordner), der einen Pfad zu Unity Catalog enthält.
Für tDeltaLakeInput- und tDeltaLakeOutput-Komponenten können Sie Unity Catalog für die Arbeit mit verwalteten Tabellen verwenden.
Option Unity Catalog in der Ansicht Basic settings (Grundlegende Einstellungen) von tDeltaLakeInput.
Unterstützung für den Workspace-Speicherort für Databricks
Für Databricks wird die DBFS-Option für den Skriptspeicherort nicht mehr unterstützt. Sie wird durch Workspace ersetzt.
Workspace für Init-Skripte.

Ab Databricks 15.4 LTS wird DBFS nicht mehr zum Speichern von Anwendungsbibliotheken unterstützt. Der Ordnerparameter Dependencies (Abhängigkeiten) verwendet stattdessen den Pfad zu Workspace als Standard-Bibliotheksspeicherort.

Availability-noteBeta
Unterstützung für Databricks 15.4 LTS mit Spark Universal 3.x

Sie können Ihre Spark Batch- und Streaming-Jobs jetzt in jobbasierten wie auch in multifunktionalen Databricks-Clustern in Google Cloud Platform (GCP), AWS und Azure unter Rückgriff auf Spark Universal mit Spark 3.x ausführen. Die Konfiguration erfolgt entweder in der Ansicht Spark Configuration (Spark-Konfiguration) Ihrer Spark-Jobs oder im Metadaten-Assistenten Hadoop Cluster Connection (Hadoop-Clusterverbindung).

Wenn Sie diesen Modus auswählen, ist Talend Studio mit Databricks 15.4 LTS kompatibel.

Databricks 15.4 LTS mit Spark Universal 3.5.x in einer Spark-Konfiguration.

Datenintegration

Funktion Beschreibung

Unterstützung für die Vektorsuchfunktionen für Delta Lake-Komponenten in Standard-Jobs

Die Delta Lake-Komponenten können jetzt die Databricks-Vektorsuchfunktionen verwenden.
Availability-noteBeta

Die tOllamaClient-Komponente wird jetzt als Eingabekomponente in Standard-Jobs unterstützt

Die tOllamaClient-Komponente kann jetzt als Startkomponente in einem Job verwendet werden.

Verbesserungen in tHTTPClient-Optionen zum Herunterladen und Speichern von Ressourcen in Standard-Jobs

Die Optionen Use custom attachment name (Benutzerdefinierten Anhangnamen verwenden) und Use cache to save resource (Cache zum Speichern der Ressource verwenden) wurden zur tHTTPClient-Komponente hinzugefügt und ermöglichen es Ihnen, den Dateinamen des Anhangs zu definieren und die Daten im Cache zu speichern, um die Leistung zu verbessern.

Data Mapper

Funktion Beschreibung
Unterstützung für parametrisierte Ausdrücke in DSQL Map Editor (DSEL) Talend Studio unterstützt jetzt parametrisierte Ausdrücke in DSQL Map Editor. Damit können Sie flexible und anpassbare Ausdrücke erstellen.
Ansicht DSQL Parameterized Expressions (DSQL – Parametrisierte Ausdrücke).
Unterstützung für den Export von DSQL-Maps als CSV Sie können jetzt eine DSQL-Map mit der Option Maps as CSV (Maps als CSV) als CSV-Datei exportieren. Die exportierte Datei ist auch mit Excel kompatibel.

Weitere Informationen finden Sie unter Exporting a map.

Dialogfeld Export Maps as CSV (Maps als CSV exportieren).
Unterstützung für Avro-Schema (Confluent-Registrierung) mit Strukturimport Sie können jetzt eine Struktur aus einem Avro-Schema erstellen, das in einer Confluent-Schemaregistrierung gespeichert ist.

Weitere Informationen finden Sie unter Arbeiten mit Avro-Schema (Confluent-Registrierung).

Dialogfeld Import Select (Auswahl importieren) mit dem ausgewählten Typ Avro schema (Confluent Registry) (Avro-Schema (Confluent-Registrierung)).
Unterstützung für DSQL-Maps zur Abflachung Talend Studio unterstützt jetzt DSQL-Maps zur Abflachung. Diese Funktion ersetzt die vorherige Unterstützung für Standard-Maps zur Abflachung.

Weitere Informationen zu DSQL-Maps zur Abflachung finden Sie unter Erstellen einer Map zur Abflachung.

Erstellung einer neuen Map für DSQL-Map zur Abflachung.
Unterstützung für mehrere Eingaben und Ausgaben in der Ansicht Test Run (Testausführung) in DSQL-Maps. Die Funktion Test Run (Testausführung) kann jetzt in DSQL-Maps mit mehreren Eingaben und Ausgaben verwendet werden. In der Ansicht Test Run (Testausführung):
  • Wenn Sie mehrere Eingaben haben, stehen Ihnen jetzt mehrere Registerkarten zur Verfügung, die jeweils einer Eingabestruktur entsprechen. Wenn eine Struktur beispielsweise drei Eingaben umfasst, sind drei Registerkarten vorhanden. Sie können auch die Beispieldaten ändern, die in der Struktur als Eingabe verwendet werden, indem Sie entweder Daten ziehen und ablegen oder auf die Schaltfläche Select New Sample Data (Neue Beispieldaten auswählen) klicken.
  • Wenn Sie mehrere Ausgaben haben, stehen Ihnen jetzt mehrere Registerkarten zur Verfügung, die nur angezeigt werden, wenn Sie auf Execute Test Run (Testausführung ausführen) klicken.
Struktur mit mehreren Ausgaben, die in der Ansicht Test Run (Testausführung) hervorgehoben sind.
Mit dieser Funktion sind zwei neue Optionen verfügbar, wenn Sie mit der rechten Maustaste auf die Struktur klicken:
  • Show sample file (Beispieldatei anzeigen) in der Eingabestruktur. Damit wird eine Vorschau der Beispieldaten geöffnet.
  • Show last test run result (Ergebnis der letzten Testausführung anzeigen) in der Ausgabestruktur. Damit wird die Ansicht Test Run (Testausführung) geöffnet, die die Ergebnisse der letzten Ausführung anzeigt.
Die Parameter Show sample file (Beispieldatei anzeigen) und Show last test run result (Ergebnis der letzten Testausführung anzeigen) werden nach Rechtsklick auf Strukturen angezeigt.
Neue Array-Funktionen in DSQL-Maps Die folgenden Array-Funktionen sind jetzt in DSQL-Maps verfügbar:
  • arrayContains gibt an, ob ein Arrary einen angegebenen Wert enthält.
  • arrayIndexOf gibt den Index eines Werts innerhalb eines Arrays zurück.
Neue Funktionen getValueFromExternalMap und putValueToExternalMap in DSQL-Maps Die folgenden Funktionen sind jetzt in DSQL-Maps verfügbar:
  • getValueFromExternalMap ruft den Wert einer Variablen ab, die in einem Job oder einer Route definiert ist.
  • putValueToExternalMap erstellt oder aktualisiert eine Variable, die in einem Job oder einer Route wiederverwendet werden kann.
Neue Option zum Festlegen einer Beschreibung für aufgeteilte und ausgerollte Schleifen in Standard-Maps Der Parameter Set description... (Beschreibung festlegen) ist jetzt für aufgeteilte und ausgerollte Elemente in einer Standard-Map verfügbar. Damit kann eine Beschreibung für diese Elemente festgelegt werden, die vom Basisschleifen-Map-Element abweichen kann.
Der Parameter Set description... (Beschreibung festlegen) wird bei Rechtsklick auf eine aufgeteilte Schleife hervorgehoben.
Unterstützung für die Schlüsselwörter ELSE IF und THEN in bedingten Ausdrücken in DSQL-Maps Talend Studio unterstützt jetzt die Schlüsselwörter ELSE IF und THEN in bedingten Ausdrücken in DSQL-Maps.
Mit einem bedingten Ausdruck geöffnete DSQL-Map, unter Verwendung der Schlüsselwörter ELSE IF und THEN in einem bedingten Ausdruck.
Neues Tastaturkürzel zum Öffnen und Ausführen von Testausführungen im DSQL Map Editor Ein neues Tastaturkürzel Strg + T ist jetzt verfügbar, um Testausführungen in DSQL Map Editor zu öffnen und auszuführen.
Aktualisierung der Lösungsstrategie für die COBOL-Reader-Auswahl Die Lösungsstrategie für die COBOL-Reader-Auswahl wird zur Laufzeit aktualisiert, wenn Ihre Struktur eine Auswahl zwischen mehreren Alternativen umfasst. Die Fallback-Strategie funktioniert jetzt wie folgt:
  • Wenn alle Alternative einen isPresent-Ausdruck enthalten und alle „false“ zurückgeben, wird ein Fehler ausgegeben und die Fallback-Strategie nicht mehr angewendet.
  • Wenn mindestens eine Alternative vorhanden ist, die keinen isPresent-Ausdruck enthält, wird die Fallback-Strategie angewendet, aber nur auf die Alternativen, bei denen der isPresent-Ausdruck fehlt.

Im Dialogfeld Cobol Properties (COBOL-Eigenschaften) ist die neue Option Apply default Choice resolution strategy to all alternatives (Standard-Auswahllösungsstrategie auf alle Alternativen anwenden) verfügbar. Damit können Sie die Standard-Auswahllösungsstrategie anwenden, was bedeutet, dass die Fallback-Strategie immer auf alle Alternativen angewendet wird, wenn keine Alternative über einen isPresent-Ausdruck ausgewählt werden konnte.

Dialogfeld Cobol Properties (COBOL-Eigenschaften).
Unterstützung des Literals NULL als Ausdruck in DSQL-Maps Talend Studio unterstützt jetzt das Schlüsselwort NULL als Literal in DSQL-Map-Ausdrücken.
DSQL-Map, geöffnet mit dem als Literal verwendeten Schlüsselwort NULL.
Neue Option zum Entfernen einer Struktur aus einer DSQL-Map Remove structure (Struktur entfernen) ist jetzt verfügbar, wenn Sie mit der rechten Maustaste auf das Root-Element einer Struktur in einer DSQL-Map klicken. Damit können Sie die Eingabe- oder Ausgabestruktur entfernen.
Der Parameter Remove structure (Struktur entfernen) wird bei Rechtsklick auf eine Struktur in einer DSQL-Map hervorgehoben.

Datenqualität

Funktion Beschreibung
Availability-noteBeta
Unterstützung für Snowflake als Datenbankverbindung im Repository
Sie können jetzt eine Snowflake-Verbindung in den Perspektiven- und Profilspaltenanalysen in Profiling erstellen.

Hat diese Seite Ihnen geholfen?

Wenn Sie ein Problem mit dieser Seite oder ihrem Inhalt feststellen, sei es ein Tippfehler, ein ausgelassener Schritt oder ein technischer Fehler, informieren Sie uns bitte!