Accéder au contenu principal Passer au contenu complémentaire

Nouvelles fonctionnalités

Intégration d'application

Fonctionnalité Description
Nouvelle configuration des microservices pour écraser l'activation et la configuration de l'authentification

Vous pouvez à présent utiliser les paramètres dans des fichiers de propriétés supplémentaires afin d'écraser la configuration de l'authentification pour les types BASIC (basique) et JWT Bearer Token (Jeton Bearer JWT) dans les composants cREST et tRESTRequest.

Cette configuration de sécurité et l'activation de l'endpoint Prometheus dans le fichier des propriétés peuvent être écrasées via l'utilisation du paramètre adéquat dans le Commandline, lors de l'exécution du microservice.

Pour plus d'informations, consultez Exécuter un microservice.
Nouveau composant de Route disponible pour Azure Service Bus Le composant cAzureServiceBus est à présent disponible dans les Routes, vous permettant d'envoyer des messages vers, ou de consommer des messages depuis Azure Service Bus.

Big Data

Fonctionnalité Description
Support de Dataproc 2.2 avec Spark Universal 3.x Vous pouvez à présent exécuter vos Jobs Spark sur un cluster Google Dataproc, à l'aide de Spark Universal avec Spark 3.x. Vous pouvez la configurer dans la vue Spark Configuration (Configuration de Spark) de vos Jobs Spark ou dans l'assistant de métadonnées Hadoop Cluster Connection (Connexion au cluster Hadoop).
Lorsque vous sélectionnez ce mode, le Studio Talend est compatible avec les versions 2.1 et 2.2 de Dataproc.
Vue Spark Configuration (Configuration Spark) d'un Job Spark Batch avec la version 2.2 de Dataproc sélectionnée.
Availability-noteBeta
Support de CDP Private Cloud Base 7.3.1 avec Spark Universal 3.x
Vous pouvez à présent exécuter vos Jobs Spark sur un cluster CDP Private Cloud Base 7.3.1 avec la JDK 17, à l'aide de Spark Universal avec Spark 3.x en mode Yarn cluster (Cluster YARN). Vous pouvez la configurer dans la vue Spark Configuration (Configuration de Spark) de vos Jobs Spark ou dans l'assistant de métadonnées Hadoop Cluster Connection (Connexion au cluster Hadoop).

Avec la version bêta de cette fonctionnalité, les Jobs utilisant des composants Iceberg et Kudu ne fonctionnent pas.

Vue Spark Configuration (Configuration Spark) d'un Job Spark Batch avec la version 7.3.1 de CDP Private Cloud Base sélectionnée.
Amélioration du composant tS3Configuration pour supporter les buckets multiples avec AssumeRole AWS Vous pouvez à présent ajouter un rôle à plusieurs buckets dans votre Job, via l'option Assume Role (Endosser un rôle) dans le composant tS3Configuration.
Support de l'évolution du schéma dans le tIcebergTable dans les Jobs Spark Batch De nouvelles actions sont à présent disponibles dans la propriété Action on table (Action sur la table) du composant tIcebergTable : Add columns (Ajouter des colonnes), Alter columns (Modifier des colonnes), Drop columns (Supprimer des colonnes), Rename columns (Renommer des colonnes) et Reorder columns (Réorganiser des colonnes).
Nouvelles actions dans la liste déroulante de la propriété Action on table (Action sur la table).

Intégration de données

Fonctionnalité Description

Support des fonctionnalités d'API OData pour SAP dans les Jobs Standards

Nouveaux composants SAP disponibles pour lire et écrire des données dans un service Web SAP OData :

  • Le tSAPODataInput vous permet de lire des données à partir d'un service Web de données SAP OData et de configurer vos paramètres de requêtes.
  • Le tSAPODataOutput vous permet d'insérer, de mettre à jour ou de supprimer des enregistrements à partir d'un service Web SAP OData existant.

Data Mapper

Fonctionnalité Description
Éditeur de maps DSQL Le support de l'éditeur de maps DSQL est à présent généralement disponible (GA).

Le nouvel éditeur de maps DSQL vous permet de créer une map basée sur le langage Data Shaping Query Language.

Comme pour les maps standards, vous pouvez créer des maps DSQL pour mapper un ou plusieurs fichier·s d'entrée à un ou plusieurs fichier·s de sortie, à l'aide des représentations supportées par les maps standards. Pour plus d'informations, consultez Différences entre les maps standards et DSQL.

Nouvelles options pour créer une expression paramétrée De nouvelles options sont à présent disponibles dans l'éditeur de maps DSQL afin de créer une expression paramétrée :
  • Dans la vue DSQL Parameterized Expressions (Expressions paramétrées DSQL), cliquez-droit sur le panneau de gauche. L'option New parameterized expression (Nouvelle expression paramétrée) s'affiche.
    Option New parameterized expression (Nouvelle expression paramétrée) sélectionnée lors du clic-droit sur le panneau de gauche dans la vue DSQL Parameterized Expressions (Expressions paramétrées DSQL).
  • Dans la structure d'entrée et de sortie, cliquez-droit sur un élément. L'option DSQL Parameterized Expressions (Expressions paramétrées DSQL) s'affiche.
    Option DSQL Parameterized Expressions (Expressions paramétrées DSQL) sélectionnée lors du clic-droit sur un élément dans la structure de sortie.
Nouvelle option pour stocker les résultats Test Run (Exécution de test) sur le système de fichiers dans les maps DSQL Une nouvelle option, Execute Test Run to File (Lancer l'exécution de test vers fichier), est à présent disponible dans la vue Test Run (Exécution de test) de votre éditeur de maps DSQL. Elle vous permet d'enregistrer les résultats en sortie de votre map DSQL dans votre système de fichiers.
Option Execute Test Run to File (Lancer l'exécution de test vers fichier) dans la vue Test Run (Exécution de test).

Qualité de données

Fonctionnalité Description
Valider des données à l'aide de règles de validation dans Qlik Talend Data Integration Le nouveau composant tDQRules Standard vous permet de connecter le Studio Talend à Qlik Talend Data Integration et d'utiliser les règles de validation.

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – faites-le-nous savoir.