Zu Hauptinhalt springen Zu ergänzendem Inhalt springen

Neue Funktionen

Anwendungsintegration

Funktion Beschreibung
cAWSConnection: Unterstützung für Kontextparameter in der AWS-Regionskonfiguration Sie können jetzt Kontextparameter verwenden, um die AWS-Region in der AWSConnection-Komponente anzugeben.
Neue cAWSKinesis-Komponente in Routen Die cAWSKinesis-Komponente ist jetzt in Routen verfügbar, um Nachrichten von Amazon Kinesis Service zu erhalten bzw. zu senden.
Ansicht Basic settings (Grundlegende Einstellungen) von cAWSKinesis.

Big Data

Funktion Beschreibung
Neue MapRDB-Komponenten für HPE Data Fabric 7.7 in Spark-Batch-Aufträgen Die folgenden MapRDB-Komponenten sind jetzt in Spark-Batch-Aufträgen verfügbar, wenn Sie den HPE Data Fabric 7.7-Cluster mit Spark Universal 3.3.x im Modus Spark-submit scripts verwenden:
  • tMapRDBInput
  • tMapRDBOutput

Mit dieser Funktion unterstützt Talend Studio auch die Kerberos- und MapR Ticket-Authentifizierung.

Die Konfiguration erfolgt entweder in der Ansicht Spark Configuration (Spark-Konfiguration) Ihrer Spark-Batch-Aufträge oder im Metadaten-Assistenten Hadoop Cluster Connection (Hadoop-Clusterverbindung).
Ansicht Spark Configuration (Spark-Konfiguration) eines Spark-Batch-Auftrags, in der die neuen Parameter Authentication (Authentifizierung) und MapR Ticket authentication (MapR Ticket-Authentifizierung) hervorgehoben sind.
Unterstützung für Shared Access Signature-Authentifizierung in Spark-Aufträgen mit HDInsight 5.0 und 5.1 Talend Studio unterstützt jetzt die SAS-Authentifizierung (Shared Access Signature) in Spark-Batch- und Spark-Streaming-Aufträgen mit HDInsight 5.0 und 5.1. Diese Authentifizierung ist für Azure Blog Storage und ADLS Gen2 verfügbar.

Die Konfiguration erfolgt entweder in der Ansicht Spark Configuration (Spark-Konfiguration) Ihrer Spark-Jobs oder im Metadaten-Assistenten Hadoop Cluster Connection (Hadoop-Clusterverbindung).

Ansicht Spark Configuration (Spark-Konfiguration) eines Spark-Batch-Auftrags mit dem neuen Authentifizierungsmodus Shared Access Signature.
Unterstützung für Hive 3 im Metadaten-Assistenten Sie können jetzt Ihre Verbindung mit Hive 3 im Metadaten-Assistenten Db Connections (Db-Verbindungen) konfigurieren.

Mit dieser Funktion ändert sich der Eigenschaftenname von Hive server (Hive-Server) in Hive version (Hive-Version).

Dialogfeld Database Connection (Datenbankverbindung) mit Hive-Einstellungen.

Kontinuierliche Integration (CI = Continuous Integration)

Funktion Beschreibung
Talend CI Builder aktualisiert auf Version 8.0.20 Talend CI Builder wurde von der Version 8.0.19 auf die Version 8.0.20 aktualisiert.

Verwenden Sie ab dieser monatlichen Version Talend CI Builder 8.0.20 in Ihren CI-Befehlen (Continuous Integration: Kontinuierliche Integration) oder Pipeline-Skripten bis zur Veröffentlichung einer neuen Version von Talend CI Builder.

Datenintegration

Funktion Beschreibung
Die tDataprepRun-Komponente für die Cloud-Implementierung ist GA Sie können Cloud in dem neuen Feld Deployment (Implementierung) der tDataprepRun-Komponente auswählen, um dedizierte Konfigurationsoptionen zu nutzen, wenn Sie Vorbereitungen in Talend Cloud Data Preparation in Ihren Aufträgen benötigen.

In der Cloud-Implementierung werden Ihre Vorbereitungen auf der gleichen Engine wie der Auftrag ausgeführt, sodass die Daten Ihre Infrastruktur nicht verlassen.

Die Authentifizierungsparameter verwenden jetzt persönliche Authentifizierungs-Token, und das Abrufen von Abhängigkeiten der Vorbereitung wie Lookup-Datensätze und semantische Typen wurde ebenfalls vereinfacht. Zudem unterstützt die Komponente jetzt andere Datentypen und nicht nur string.

Übersicht über die tdatapreprun-Einstellungen bei Verwendung der Cloud-Implementierung
Neue tQlikOutput-Komponente zum Hochladen von Dateien an Qlik Cloud in Standard- Jobs Die neue tQlikOutput-Komponente ist jetzt in Standard-Jobs verfügbar. Damit können Datendateien in Qlik Cloud erstellt, aktualisiert oder gelöscht werden.
Neue tChunking-Komponente in Standard-Jobs (Beta) Die neue tChunking-Komponente ist jetzt in Standard-Jobs verfügbar. Damit können große Texte in kleinere, besser handhabbare Chunks unterteilt werden.
Unterstützung für Oracle-Komponenten als Vektordatenbanken mit Database 23ai in Standard-Jobs Nach Hinzufügen von Version 23ai unterstützen Oracle-Komponenten jetzt Vektorfunktionen.
Unterstützung für Chunk-Uploads für tHTTPClient in Standard-Jobs Die neue Option Binary (Binär) wurde zum Parameter Textkörpertyp hinzugefügt, um Benutzern das Hochladen großer Datendateien in Chunks zu ermöglichen.
Unterstützung des Delta-Formats für tAzureADLSGen2Output in Standard-Jobs Das Delta-Format wird jetzt in der tAzureADLSGen2Output-Komponente unterstützt, was das Schreiben von Daten in einer Delta-Tabelle ermöglicht.
Ansicht Basic settings (Grundlegende Einstellungen) von tAzureAdlsGen2Output mit dem neuen Format Delta.
Unterstützung für das Partitionieren von tAzureADLSGen2Output in Standard-Jobs Die neue Option Partition columns (Spalten partitionieren) ist jetzt in der tAzureADLSGen2Output-Komponente verfügbar. Damit können Benutzer ähnliche Daten gestützt auf bestimmte Spalten gruppieren.
Ansicht Advanced settings (Erweiterte Einstellungen) von tAzureAdlsGen2Output mit dem neuen Parameter Partition columns (Spalten partitionieren).

Data Mapper

InformationshinweisWichtig: Talend Data Mapper-Laufzeit wird von java.joda auf java.time aktualisiert.
Funktion Beschreibung
Elementeigenschaften können in DSQL-Maps angezeigt werden. Eine neue Ansicht Properties (Eigenschaften) ist jetzt in der DSQL-Map verfügbar. Auf dieser Registerkarte können Sie alle Eigenschaften für ein ausgewähltes Element in der Map anzeigen.
Öffnen Sie die Ansicht Properties (Eigenschaften), indem Sie
  • auf Window (Fenster) > Show view (Ansicht anzeigen) > General (Allgemein) > Properties (Eigenschaften) klicken
  • mit der rechten Maustaste auf ein Element in der Map und dann auf Properties (Eigenschaften) klicken
Neue Ansicht Properties (Eigenschaften) in DSQL-Maps.

Hat diese Seite Ihnen geholfen?

Wenn Sie ein Problem mit dieser Seite oder ihrem Inhalt feststellen, sei es ein Tippfehler, ein ausgelassener Schritt oder ein technischer Fehler, informieren Sie uns bitte!