Accéder au contenu principal Passer au contenu complémentaire

Nouvelles fonctionnalités

Fonctionnalités partagées

Fonctionnalité Description
Support du visualiseur de données Azure Databricks SQL Warehouse

Le visualiseur de données et la génération de requêtes ont à présent supportés pour Azure Databricks SQL Warehouse.

Support du lignage des Jobs dans Qlik Cloud dans les composants tQVDOutput, tQlikOutput et tDBRow Le Studio Talend peut à présent générer des jeux de données et des lignages dans Qlik Cloud pour les composants tQVDOutput, tQlikOutput et tDBRow, avec les limitations suivantes :
  • tQlikOutput : les jeux de données et le lignage seront créés uniquement si l'identifiant d'espace Qlik Cloud est spécifié.
  • tDBRow : aucun jeu de données et lignage ne sera créé lorsque le composant tDBRow est utilisé pour exécuter des requêtes SELECT ou plusieurs requêtes SQL.
Nouveau dossier third_party dans le patch du Studio Talend Un nouveau dossier third_party est ajouté au patch du Studio Talend. Il contient la liste des bibliothèques Java tierces pour les différentes distributions, au format JSON.

Big Data

Fonctionnalité Description
Support de CDP Public Cloud 7.3 avec Spark Universal 3.x (Livy Knox) Vous pouvez à présent exécuter vos Jobs Spark sur un cluster CDP Public Cloud 7.3, à l'aide de Spark Universal avec Spark 3.x en mode Livy Knox. Vous pouvez la configurer dans la vue Spark Configuration (Configuration de Spark) de vos Jobs Spark ou dans l'assistant de métadonnées Hadoop Cluster Connection (Connexion au cluster Hadoop).
Mode de runtime Livy Knox avec la version 3.x de Spark.
Support de Databricks Unity Catalog dans le composant tIcebergTable Vous pouvez utiliser Unity Catalog avec les tables gérées dans le composant tIcebergTable.
Les paramètres Catalog (Catalogue) et Schema (Schéma) sont disponibles dans l'onglet Basic settings (Paramètres simples) du composant tIcebergTable.
Support de la version 1.17 de Kudu dans les composants Kudu Vous pouvez à présent utiliser Kudu en version 1.17 dans les composants tKuduConfiguration, tKuduInput et tKuduOutput.
Paramètre Kudu version (Version de Kudu) disponible dans le composant tKuduInput.

Intégration continue

Fonctionnalité Description

Mise à niveau du Builder Talend d'intégration continue en version 8.0.26

Le Builder Talend d'intégration continue a été mis à niveau, passant de la version 8.0.25 à la version 8.0.26.

Utilisez le Builder Talend d'intégration continue 8.0.26 dans vos commandes d'intégration continue ou dans vos scripts de pipelines, à partir de cette version mensuelle et jusqu'à la sortie d'une nouvelle version du Builder Talend d'intégration continue.

Intégration de données

Fonctionnalité Description
Nouveau composant tGeminiClient pour Google AI Gemini dans les Jobs Standards

Le nouveau composant tGeminiClient permet l'intégration avec les modèles d'IA Google Gemini, assurant la connectivité et les interactions avec les services d'IA de Google pour un traitement de données optimisé.

Support de Confluent pour les composants Kafka dans les Jobs Standards

Les composants Kafka supportent à présent Confluent, ce qui vous permet de bénéficier des fonctionnalités spécifiques de Confluent, en plus du support standard d'Apache Kafka. Notez que les tests ont été effectués uniquement avec Confluent Platform, et non avec Confluent Cloud. Pour plus d'informations concernant les versions supportées de Confluent, consultez Confluent Platform and Apache Kafka compatibility (en anglais).

Support du protocole HTTP/2 dans le composant tHTTPClient dans les Jobs Standards

Le composant tHTTPClient a été mis à jour pour supporter le protocole HTTP/2, pour améliorer les performances et une compatibilité moderne avec les API.

Support des logs WSDL pour les enveloppes SOAP dans les composants NetSuite dans les Jobs Standards

Vous pouvez à présent activer les logs WSDL pour les enveloppes SOAP dans les paramètres avancés des composants NetSuite, afin de faciliter la traçabilité et le dépannage.

Data Mapper

Fonctionnalité Description
Support de la transformation récursive hiérarchique vers plate dans l'éditeur de maps DSQL Vous pouvez à présent aplatir une structure récursive dans l'éditeur de maps DSQL. Cette transformation récursive vers plate ajoute les clauses suivantes :
  • FROM RECURSIVE path
  • FROM path_1 RECURSIVE ON path_2
  • UNNEST RECURSIVE path
  • UNNEST path_1 RECURSIVE ON path_2
  • DEPTH variable
  • PARENT variable
Support de la fonction CondValidateReport dans toutes les parties d'une expression de validation Vous pouvez à présent utiliser la fonction CondValidateReport comme racine ou paramètre d'une expression de validation afin de fournir un rapport plus riche d'un problème de validation.
Support de la fonction ReadMapInput dans le moteur d'exécution non-Eclipse La fonction ReadMapInput pour les maps Standards est à présent supportée dans le moteur d'exécution non-Eclipse.

Qualité de données

Fonctionnalité Description
Renommage, en anglais, de l'élément d'interface user-defined indicators (indicateurs personnalisés) en custom indicators (indicateurs personnalisés). La traduction française reste inchangée. Les indicateurs personnalisés user-defined indicators ont été renommés, en anglais, dans l'interface, en custom indicators. La traduction française reste inchangée. La fonctionnalité est la même, seul le nom a changé.

Menu Indicators (Indicateurs)

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – faites-le-nous savoir.