Zu Hauptinhalt springen Zu ergänzendem Inhalt springen

Neuheiten in R2022-09

Big Data: Neue Funktionen

Funktion

Beschreibung

Verfügbar in

Availability-noteBeta
Unterstützung für Spark Universal 3.3.x im lokalen Modus
Sie können Ihre Spark Batch- und Streaming-Jobs jetzt unter Rückgriff auf Spark Universal mit Spark 3.3.x im lokalen Modus (Local) ausführen. Die Konfiguration erfolgt entweder in der Ansicht Spark Configuration (Spark-Konfiguration) Ihrer Spark-Jobs oder im Metadaten-Assistenten Hadoop Cluster Connection (Hadoop-Clusterverbindung).

Die Big Data-Komponenten von Talend Data Mapper und Talend Data Quality waren zum Zeitpunkt dieser Release nicht mit Spark 3.3.x kompatibel. Aus diesem Grund bleibt Spark Universal 3.2.x die Standardversion für diesen Patch. Spark 3.3.x wird ab Version R2020-10 unterstützt.

Alle abonnementbasierte Produkte von Talend mit Big Data

Unterstützung für Databricks Runtime ab 10.x mit GCP unter Spark Universal 3.2.x Sie können Ihre Spark Batch- und Streaming-Jobs jetzt in jobbasierten wie auch in multifunktionalen Databricks-Clustern in Google Cloud Platform (GCP) unter Rückgriff auf Spark Universal mit Spark 3.2.x ausführen. Die Konfiguration erfolgt entweder in der Ansicht Spark Configuration (Spark-Konfiguration) Ihrer Spark-Jobs oder im Metadaten-Assistenten Hadoop Cluster Connection (Hadoop-Clusterverbindung).

Wenn Sie diesen Modus auswählen, ist Talend Studio mit Databricks ab Version 10.x kompatibel.

Alle abonnementbasierte Produkte von Talend mit Big Data

Unterstützung für Kontextgruppen zur Umschaltung von jobbasierten zu multifunktionalen Clustern in Databricks für Spark-Jobs Sie können jetzt in Databricks mithilfe von Kontextgruppen von jobbasierten zu multifunktionalen Clustern umschalten. Bei der Konfiguration der Verbindung zum Databricks-Cluster können Sie jetzt spezifische Kontextgruppen hinzufügen, die bei der Ausführung Ihrer Spark-Jobs verwendet werden. Die Konfiguration erfolgt entweder in der Ansicht Spark Configuration (Spark-Konfiguration) Ihrer Spark-Jobs oder im Metadaten-Assistenten Hadoop Cluster Connection (Hadoop-Clusterverbindung). Es wird jedoch empfohlen, die Konfiguration im Metadaten-Assistenten Hadoop Cluster Connection (Hadoop-Clusterverbindung) vorzunehmen.

Alle abonnementbasierte Produkte von Talend mit Big Data

Erweiterung von tFileInputDelimited zur Unterstützung eines dynamischen Schemas in Spark Batch-Jobs Sie können jetzt im Schema von tFileInputDelimited in Ihren Spark Batch-Jobs eine dynamische Spalte hinzufügen. Mit der dynamischen Schemafunktion können Sie ein Schema auf nicht-statische Weise konfigurieren, d. h. Sie müssen Ihren Spark-Job bei einer künftigen Schema-Änderung nicht umgestalten und stellen dabei sicher, dass er stets ordnungsgemäß funktioniert.

Alle abonnementbasierte Produkte von Talend mit Big Data

Availability-noteBeta
Unterstützung für MongoDB v4+ für Spark Batch ab Version 3.1
Talend Studio bietet jetzt Unterstützung für MongoDB v4+ mit Spark ab Version 3.1 für die folgenden Komponenten in Ihren Spark Batch-Jobs unter Verwendung von Dataset:
  • tMongoDBInput
  • tMongoDBOutput
  • tMongoDBConfiguration

Alle abonnementbasierte Produkte von Talend mit Big Data

Data Integration: Neue Funktionen

Funktion

Beschreibung

Verfügbar in

SSO-Anmeldung bei Talend Studio über Talend Cloud Wenn Sie mit Talend Cloud arbeiten, können Sie sich jetzt über Talend Cloud bei Talend Studio anmelden, entweder unter Rückgriff auf SSO oder auf die herkömmliche Weise. Im Anmeldefenster stehen folgende zwei Optionen zur Verfügung:
  • Anmelden mit Talend Cloud : Ermöglicht Ihnen die Anmeldung bei Talend Studio über Talend Cloud.

    Beachten Sie, dass Sie die Standardregion für Talend Cloud festlegen können, indem Sie den Parameter -Dtalend.tmc.datacenter=<region> in der Talend Studio .ini-Datei hinzufügen, wobei <region> der Abkürzung der Region entspricht. Sie finden sie in der Talend Cloud-URL.

  • Other login mode (Anderer Anmeldemodus): Ermöglicht Ihnen die Anmeldung bei Talend Studio auf herkömmliche Weise. Verwenden Sie diese Option, wenn Sie nicht mit Talend Cloud arbeiten.
InformationshinweisAnmerkung: Die Anmeldung bei Talend Studio über Talend Cloud wird zurzeit nicht für Linux auf ARM64 unterstützt.

Weitere Informationen finden Sie unter „Starten von Talend Studio“.

Alle abonnementbasierte Produkte von Talend mit Talend Studio

Unterstützung der Basisauthentifizierung für den Zugriff auf Update-Repositories Talend Studio unterstützt jetzt die Basisauthentifizierung für Update-Repositories unter Rückgriff auf den sicheren Eclipse-Speicher. Weitere Informationen finden Sie unter „Basisauthentifizierung für Update-Repositories in Talend Studio“.

Alle abonnementbasierte Produkte von Talend mit Talend Studio

Neue Option zur Bereinigung veralteter Bibliotheken bei der Update-Installation Sie können Talend Studio für die automatische Bereinigung veralteter Bibliotheken bei der Installation von Updates konfigurieren. Führen Sie dazu einen der folgenden Schritte durch:
  • Stellen Sie den Parameter -Dtalend.studio.m2.clean in der Talend Studio .ini-Datei auf true ein. Oder:
  • Aktivieren Sie das Kontrollkästchen Clean up libraries (Bibliotheken bereinigen)in der Ansicht Preferences (Präferenzen) > Talend > Update settings (Aktualisierungseinstellungen). Oder:
  • Aktivieren Sie das Kontrollkästchen Clean up libraries (Bibliotheken bereinigen) im Assistenten für die Update-Installation.

Dadurch wird Speicherplatz gespart und die von den Sicherheitstools bei der Suche nach Schwachstellen in Bibliotheken erzeugten Störungen werden reduziert. Beachten Sie Folgendes:

  • Das Kontrollkästchen Clean up libraries (Bibliotheken bereinigen) ist erst nach der Installation des Monats-Updates von Talend Studio 8.0 R2022-09 verfügbar. Wenn veraltete Bibliotheken bei der Installation des monatlichen Talend Studio-Updates 8.0 R2022-09 automatisch bereinigt werden sollen, fügen Sie den Parameter -Dtalend.studio.m2.clean in der .ini-Datei hinzu und starten Sie Talend Studio neu, bevor Sie das Update installieren.
  • Nach der Bereinigung veralteter Bibliotheken müssen Sie alle zuvor installierten Dritthersteller-Bibliotheken erneut herunterladen.

Weitere Informationen finden Sie unter „Aktualisieren von Talend Studio“.

Alle abonnementbasierte Produkte von Talend mit Talend Studio

E-Mail bei der Arbeit mit Talend Cloud als Git-Commit-Autor verwendet Wenn Sie an einem von Talend Management Console verwalteten Projekt arbeiten, wird anstelle des Anmeldenamens in Talend Management Console die E-Mail als Git-Autor und Committer bei der Übergabe Ihrer Änderungen an Git in Talend Studio verwendet.

Alle Produkte von Talend Cloud und Talend Data Fabric

Neue Komponenten für die Verbindung zu Google Bigtable zum Speichern/Abrufen von Daten Talend Studio unterstützt jetzt die folgenden neuen Komponenten für den Aufbau einer Verbindung zu Google Bigtable, um Daten zu speichern bzw. abzurufen:
  • tBigtableInput
  • tBigtableOutput
  • tBigtableClose
  • tBigtableConnection

Alle Produkte von Talend Platform und Data Fabric

Neue Option in Oracle-Komponenten und Metadaten-Assistent zum Hinzufügen einer Globalisierungsunterstützung Oracle-Komponenten wie auch der Metadaten-Assistent stellen die Option Support NLS (NLS-Unterstützung) bereit, über die Globalisierungsunterstützung für Oracle ab Version 18 aktiviert werden kann.

Alle abonnementbasierte Produkte von Talend mit Talend Studio

Neue Komponente zum Schreiben an Workday-Clients Diese Release umfasst die tWorkdayOutput-Komponente, die Ihnen das Schreiben von Daten an einen Workday-Client ermöglicht.

Alle abonnementbasierte Produkte von Talend mit Talend Studio

Unterstützung der Microsoft Exchange-Authentifizierung in tPOP Die tPOP-Komponente stellt den Microsoft Exchange-Authentifizierungsmodus zur Verfügung, sodass Sie Nachrichten im Microsoft Exchange-Authentifizierungsmodus abrufen können.

Alle abonnementbasierte Produkte von Talend mit Talend Studio

ID-basierte Paginierung für die Komponente tDataStewardshipTaskInput Aktivieren Sie diese Option, um die Leistung beim Abrufen und Sortieren der Tasks von Talend Cloud Data Stewardship zu verbessern.

Alle abonnementbasierte Produkte von Talend mit Talend Studio

Availability-noteBeta
Zusätzliche Log-Attribute über MDC bei Verwendung von Log4j 2
Wenn Sie Apache Log4j 2 in Ihren Jobs verwenden, wird der Log4j 2-MDC (Mapped Diagnostic Context) jetzt mit Schlüssel-/Wert-Paaren gefüllt. Diese zusätzlichen Log-Attribute vereinfachen die Identifizierung des Threads, in dem Logdaten generiert werden, wenn alle Log-Meldungen von verschiedenen Threads in eine einzelne Datei geschrieben werden. Weitere Informationen zum Log4j 2-MDC finden Sie unter Log4j 2-API - Thread-Kontext.

Um die zusätzlichen Log-Attribute beim Schreiben von Logs einzubeziehen, müssen Sie die Log4j 2-Vorlage in Talend Studio entsprechend konfigurieren. Weitere Informationen finden Sie unter „Aktivieren und Konfigurieren von Log4j“.

Alle abonnementbasierte Produkte von Talend mit Talend Studio

Data Mapper: Neue Funktionen

Funktion

Beschreibung

Verfügbar in

Von flacher zu hierarchischer Map

Ein neuer Map-Typ ermöglicht Ihnen die Erstellung einer hierarchischen Struktur ausgehend von einer flachen Struktur sowie das entsprechende Mapping. Sie können die Ausgabestruktur bearbeiten, Arrays und Datensätze erstellen und die Daten auf der Grundlage eines spezifischen Elements gruppieren. Nach der Definition der Ausgabestruktur wird eine Map erstellt und die Eingabe automatisch der Ausgabe zugeordnet (Mapping).

Alle Produkte von Talend Platform und Data Fabric

Data Quality: Neue Funktionen

Funktion

Beschreibung

Verfügbar in

Unterstützung von Spark 3.2 im lokalen Modus und in Databricks Die DQ-Komponenten können jetzt unter Rückgriff auf Apache Spark 3.2 im lokalen Modus und in Databricks ausgeführt werden.
Hierbei gelten einige Ausnahmen:
  • tMatchIndex und tMatchIndexPredict: Im lokalen Modus funktionieren die Komponenten nach wie vor nur mit Apache Spark 2.4. Mit Databricks ist kein Betrieb möglich.
  • tDataEncrypt und tDataDecrypt: Die Komponenten funktionieren nicht mit Databricks mit Apache Spark ab Version 3.1.
  • tKMeansStrModel und tPredictCluster: Die Streaming-Komponenten funktionieren nicht mit Databricks mit Apache Spark 3.2.

Alle Produkte von Talend Platform und Data Fabric

Kontinuierliche Integration (CI = Continuous Integration): Neue Funktionen

Funktion

Beschreibung

Verfügbar in

Talend CI Builder aktualisiert auf Version 8.0.9 Talend CI Builder wurde von der Version 8.0.8 auf die Version 8.0.9 aktualisiert.

Verwenden Sie ab dieser monatlichen Version Talend CI Builder 8.0.9 in Ihren CI-Befehlen (Continuous Integration: Kontinuierliche Integration) oder Pipeline-Skripten bis zur Veröffentlichung einer neuen Version von Talend CI Builder.

Alle abonnementbasierte Produkte von Talend mit Talend Studio

Unterstützung der Basisauthentifizierung für Update-Repositories Wenn die Basisauthentifizierung in Talend Studio aktiviert wird, können Sie jetzt folgende Parameter in Ihren CI-Befehlen verwenden, um sicher auf die Update-Repositories von Talend zugreifen zu können:
  • -Declipse.keyring und -Declipse.password (Anmeldedaten für den sicheren Eclipse-Speicher)
  • -Dtalend.studio.p2.base.user und -Dtalend.studio.p2.base.pwd (Anmeldedaten für das Basis-Repository von Talend Studio)
  • -Dtalend.studio.p2.update.user und -Dtalend.studio.p2.update.pwd (Anmeldedaten für das Update-Repository von Talend Studio)

Weitere Informationen finden Sie unter „Basisauthentifizierung für Update-Repositories in Talend Studio“und „CI Builder-bezogene Maven-Parameter“.

Alle abonnementbasierte Produkte von Talend mit Talend Studio

Hat diese Seite Ihnen geholfen?

Wenn Sie ein Problem mit dieser Seite oder ihrem Inhalt feststellen, sei es ein Tippfehler, ein ausgelassener Schritt oder ein technischer Fehler, informieren Sie uns bitte!