Accéder au contenu principal Passer au contenu complémentaire

Fonctionnalités du Studio Talend

Cette section fournit une liste des fonctionnalités principales installées par défaut, ainsi qu'une liste des fonctionnalités devant être installées via le Gestionnaire des fonctionnalités.

Fonctionnalités principales installées par défaut

Fonctionnalité Description
Éditeur de Jobs d'intégration de données L'éditeur de Jobs d'intégration de données est l'espace de travail dans lequel vous pouvez concevoir vos Jobs.
Composants d'intégration de données Un composant est un élément fonctionnel effectuant une opération d'intégration de données unique dans un Job. Seuls certains composants d'intégration de données simples sont installés par défaut.
Contextes Cette fonctionnalité vous permet de gérer les Jobs et les Routes différemment selon les types d'exécution, par exemple dans des environnements de test ou de production.
Routines Une routine est une classe Java avec de nombreuses fonctions. Elle est généralement utilisée pour factoriser du code.
Modèles SQL Le Studio Talend fournit un éventail de modèles SQL permettant de simplifier les tâches les plus simples de requête et de mise à jour des données, de création et modification de schémas ou encore de contrôle des accès aux données. Il comprend également un éditeur SQL vous permettant de personnaliser ou de créer vos propres modèles SQL, afin de répondre à vos besoins.
Métadonnées pour les bases de données, les fichiers, les schémas génériques, etc. L'assistant de métadonnées vous permet de stocker des informations réutilisables sur les bases de données, les fichiers, et/ou les systèmes dans l'arborescence Repository. Ces informations pourront être réutilisées ultérieurement pour configurer les paramètres de connexion des composants d'entrée ou de sortie, et le schéma de données, de façon centralisée.
Git support (Support de Git) Cette fonctionnalité vous permet de travailler sur des projets distants stockés sur des dépôts Git.
Remote execution (Exécution à distance)
Cette fonctionnalité vous permet de déployer et d'exécuter vos Jobs sur un JobServer à distance, que vous travailliez sur un projet local ou un projet à distance, à condition que vous soyez connecté·e à Talend Administration Center.
Cloud connection (Connexion au cloud)
Cette fonctionnalité vous permet de configurer une connexion à Talend Cloud.
Talend Administration Center connection (Connexion à Talend Administration Center)
Cette fonctionnalité vous permet de configurer une connexion à Talend Administration Center.
Publish to Cloud (Publication dans le Cloud)
Cette fonctionnalité vous permet de publier des Jobs, des Routes et des services de données (artefacts) créés dans le Studio Talend vers Talend Cloud et de les rendre disponibles à certain·e·s ou tous·tes vos utilisateurs·trices Talend Management Console.

Fonctionnalités optionnelles installées à l'aide du Feature Manager (Gestionnaire des fonctionnalités)

Catégorie Fonctionnalité Description
Fonctionnalités partagées Guide d'utilisation de Talend Project Audit Talend Project Audit transforme des flux de données de projet en importantes informations métier. Il introduit une approche d'audit afin d'évaluer les différents aspects des Jobs implémentés dans Studio Talend,
Fonctionnalités partagées
Build Docker image (Construction d'une image Docker)
Cette fonctionnalité vous permet de construire un Job comme image Docker afin de l'exécuter sur un moteur Docker.
Fonctionnalités partagées Data Lineage (Lignage des données) Cette fonctionnalité fournit des fonctions avancées pour analyser chaque élément donné, comme un Job, dans la vue du Repository.
  • Analyse d'impact : explore les éléments descendants, jusqu'au composant cible.
  • Lignage de données : explore les éléments ancêtres, en commençant par le composant source.
Fonctionnalités partagées
Guide de référence des scripts de Jobs Talend
Un script de Job est un autre moyen de créer un processus d'intégration de données avec le Studio Talend, en plus du moyen via l'interface graphique de création de Jobs.
Fonctionnalités partagées Job Templates (Modèles de Job) Cette fonctionnalité vous permet d'utiliser les différents modèles pour créer des Jobs prêts à l'utilisation.
Fonctionnalités partagées Metadata Bridge Talend Metadata Bridge accélère l'implémentation, la maintenance et l'amélioration continue des scénarios d'intégration en permettant la synchronisation, le partage et la conversion de métadonnées entre les différents composants.
Fonctionnalités partagées Metadata Import from CSV (Import des métadonnées depuis un fichier CSV) Cette fonctionnalité vous permet d'importer des métadonnées se trouvant dans un fichier CSV vers une application externe.
Fonctionnalités partagées Publish to artifact repository (Publication sur le référentiel d'artefacts) Cette fonctionnalité vous permet de publier votre Job, Route ou Service sur un référentiel d'artefacts.
Fonctionnalités partagées Ressources Cette fonctionnalité vous permet de créer des ressources et de les utiliser dans vos Jobs pour la gestion des fichiers. Ainsi, en exportant vos Jobs par exemple, vous pouvez ajouter les fichiers en tant que dépendances du Job et déployer vos Jobs dans devoir copier les fichiers dans le système cible.
Fonctionnalités partagées Guide utilisateur de Talend Activity Monitoring Console Talend Activity Monitoring Console est un outil complémentaire intégré dans le Studio Talend pour monitorer les Jobs et les projets Talend.
Fonctionnalités partagées Test Cases (Scénarios de test) Cette fonctionnalité vous permet de créer des scénarios de test pour vos Jobs et vos Services, durant le développement en intégration continue, afin de vous assurer qu'ils fonctionnent comme attendu lorsqu'ils seront exécutés et devront gérer de grands jeux de données.
Fonctionnalités partagées
Règles de validation
Une règle de validation est une règle simple ou d'intégrité que vous pouvez appliquer à vos éléments de métadonnées afin de vérifier la validité de vos données. Les deux vérifications sont applicables aux tables de bases de données, aux colonnes individuelles, aux métadonnées de fichiers et à tout élément pertinent des métadonnées.
Data Integration > Components (Composants Intégration de données) Amazon DocumentDB Cette fonctionnalité installe les composants Amazon DocumentDB, y compris le tAmazonDocumentDBConnection, le tAmazonDocumentDBInput, le tAmazonDocumentDBOutput et le tAmazonDocumentDBClose.
Data Integration > Components (Composants Intégration de données) API SQL Cosmos DB Cette fonctionnalité installe des composants Cosmos DB SQL API, dont tCosmosDBSQLAPIInput et tCosmosDBSQLAPIOutput.
Data Integration > Components (Composants Intégration de données) Azure Data Lake Storage Gen2 Cette fonctionnalité installe des composants Azure ADLS Gen2, dont tAzureADLSGen2Input et tAzureADLSGen2Output.
Data Integration > Components (Composants Intégration de données) Azure Storage Cette fonctionnalité installe des composants Azure Storage, dont tAzureStorageQueueCreate, tAzureStorageQueueDelete, tAzureStorageQueueInput, tAzureStorageQueueInputLoop, tAzureStorageQueueList, tAzureStorageQueueOPutput, tAzureStorageQueuePurge, tAzureStorageConnection, tAzureStorageContainerCreate, tAzureStorageContainerDelete, tAzureStorageContainerList, tAzureStorageDelete, tAzureStorageGet, tAzureStorageList, tAzureStoragePut, tAzureStorageInputTable et tAzureStorageOutputTable.
Data Integration > Components (Composants Intégration de données) SGRM et Règles Cette fonctionnalité installe des composants SGRM/règles, dont tBRMS et tRules.
Data Integration > Components (Composants Intégration de données)
Couchbase
Cette fonctionnalité installe les composants Couchbase, notamment le tCouchbaseDCInput, le tCouchbaseDCOutput, le tCouchbaseInput et le tCouchbaseOutput.
Data Integration > Components (Composants Intégration de données) CyberArk Cette installation de fonctionnalités comprend les composants CyberArk, notamment le tCyberarkInput.
Data Integration > Components (Composants Intégration de données) tESBConsumer Cette fonctionnalité installe le composant tESBConsumer.
Data Integration > Components (Composants Intégration de données) Google Drive Cette fonctionnalité installe des composants Google Drive, dont tGoogleDriveConnection, tGoogleDriveCopy, tGoogleDriveCreate, tGoogleDriveDelete, tGoogleDriveGet, tGoogleDriveList et tGoogleDrivePut.
Data Integration > Components (Composants Intégration de données) Google Bigtable Cette fonctionnalité installe les composants Google Bigtable, y compris le tBigtableConnection, le tBigtableInput, le tBigtableOutput et le tBigtableClose.
Data Integration > Components (Composants Intégration de données) JIRA Cette fonctionnalité installe des composants Jira, dont tJIRAInput et tJIRAOutput.
Data Integration > Components (Composants Intégration de données) Marketo Cette fonctionnalité installe des composants Marketo, dont tMarketoBulkExec, tMarketoCampain, tMarketoConnection, tMarketoInput, tMarketoListOperation et tMarketoOutput.
Data Integration > Components (Composants Intégration de données)
MarkLogic
Cette fonctionnalité installe les composants MarkLogic, notamment le tMarkLogicBulkLoad, le tMarkLogicClose, le tMarkLogicConnection, le tMarkLogicInput et le tMarkLogicOutput.
Data Integration > Components (Composants Intégration de données) Neo4j Cette fonctionnalité installe des composants Neo4j, dont tNeo4jClose, tNeo4jConnection, tNeo4jInput, tNeo4jOutput, tNeo4jRow, tNeo4jBatchOutput, tNeo4jBatchOutputRelationship et tNeo4jBatchSchema.
Data Integration > Components (Composants Intégration de données)
NetSuite
Cette fonctionnalité installe des composants NetSuite, dont tNetsuiteConnection, tNetsuiteInput et tNetsuiteOutput.
Data Integration > Components (Composants Intégration de données)
NoSQL/SAP HANA/Big Data
Cette fonctionnalité installe les composants NoSQL/Big Data, dont des composants liés à Cassandra, CosmosDB, DBFS, DynamoDB, ELTHive, HBase, HCatalog, HDFS, Hive, Iceberg, Impala, Kafka, MapRDB, MongoDB, Neo4j, SAP HANA et Sqoop.
Note InformationsRemarque : Si vous avez installé la mise à jour mensuelle 8.0.1-R2023-01 du Studio Talend ou une plus récente fournie par Talend, les composants SAP HANA sont disponibles dans tous les produits Talend avec souscription et sont installés par défaut. Sinon, ils sont disponibles uniquement dans les produits Talend avec Big Data et dans Talend Data Fabric et doivent être installés via le Feature Manager (Gestionnaire des fonctionnalités) du Studio Talend. Les composants sont les suivants : tSAPHanaClose, tSAPHanaCommit, tSAPHanaConnection, tSAPHanaInput, tSAPHanaOutput, tSAPHanaRollback et tSAPHanaRow.
Data Integration > Components (Composants Intégration de données)
Partitioner
Cette fonctionnalité installe les composants de partitionnement (Partitioner), notamment le tCollector, le tDepartitoner, le tPartitioner et le tRecollector.
Data Integration > Components (Composants Intégration de données) RabbitMQ Cette fonctionnalité installe des composants RabbitMQ, dont tRabbitMQInput, tRabbitMQOutput, tRabbitMQClose et tRabbitMQConnection.
Data Integration > Components (Composants Intégration de données) tRESTClient Cette fonctionnalité installe le composant tRESTClient.
Data Integration > Components (Composants Intégration de données) Salesforce Cette fonctionnalité installe des composants Salesforce, dont tSalesforceBulkExec, tSalesforceConnection, tSalesforceEinsteinBulkExec, tSalesforceEinsteinOutputBulkExec, tSalesforceGetDeleted, tSalesforceGetServerTimestamp, tSalesforceGetUpdated, tSalesforceInput, tSalesforceOutput, tSalesforceOutputBulk et tSalesforceOutputBulkExec.
Data Integration > Components (Composants Intégration de données)
SAP Hana (Advanced)
Cette fonctionnalité installe les composants SAP HANA avancés, notamment le tSAPHanaBulkExec et le tSAPHanaUnload.
Data Integration > Components (Composants Intégration de données) Snowflake Cette fonctionnalité installe les composants Snowflake, dont tSnowflakeBulkExec, tSnowflakeClose, tSnowflakeCommit, tSnowflakeConnection, tSnowflakeInput, tSnowflakeOutput, tSnowflakeOutputBulk, tSnowflakeOutputBulkExec, tSnowflakeRollback et tSnowflakeRow.
Data Integration > Components (Composants Intégration de données) Splunk Cette fonctionnalité installe des composants Splunk, dont tSplunkEventCollector.
Data Integration > Components (Composants Intégration de données)
Talend Data Preparation

Les composants Talend Data Preparation appliquent des préparations et créent des jeux de données dans Talend Data Preparation, ou créent des flux à l'aide de données de jeux de données Talend Data Preparation.

Data Integration > Components (Composants Intégration de données)
Talend Data Stewardship

Les composants Talend Data Stewardship chargent des données dans des campagnes Talend Data Stewardship et récupèrent ou suppriment des données sous la forme de tâches dans des campagnes Talend Data Stewardship.

Data Integration > Components (Composants Intégration de données) Workday Cette fonctionnalité installe des composants Workday, dont tWorkdayInput.
Data Integration > Components (Composants Intégration de données) Zendesk Cette fonctionnalité installe des composants Zendesk, dont tZendeskInput et tZendeskOutput.
Data Integration > Metadata Advanced WSDL (WDSL avancé) Cette fonctionnalité vous aide à définir un schéma Advanced WebService et à le stocker dans l'arborescence Repository.
Data Integration > Metadata CDC (déprécié) Cette fonctionnalité vous aide à configurer un environnement CDC sur une connexion dédiée à une base de données, qui peut rapidement identifier et capturer des données ayant été ajoutées, mises à jour ou supprimées des tables des bases de données. Elle peut aussi rendre disponibles ces données modifiées pour une utilisation future par des applications ou des personnes. Elle est disponible pour Oracle, MySQL, DB2, PostgreSQL, Sybase, MS SQL Server, Informix, Ingres, Teradata et AS/400.
Data Integration > Metadata EDIFACT L'assistant de métadonnées UN/EDIFACT vous permet de créer un schéma à utiliser dans le composant tExtractEDIField afin de lire et extraire des données de fichiers de message UN/EDIFACT.
Data Integration > Metadata
Hadoop Cluster
Cette fonctionnalité vous permet de créer et de stocker une connexion à un cluster Hadoop dans l'arborescence Repository.
Data Integration > Metadata
HBase
Cette fonctionnalité vous permet de centraliser et de stocker des informations de connexion à un base de données HBase dans l'arborescence Repository.
Data Integration > Metadata
HCatalog
Cette fonctionnalité vous permet de centraliser et de stocker des informations de connexion à une table HCatalog dans l'arborescence Repository.
Data Integration > Metadata SAP L'assistant de métadonnées SAP vous permet de créer une connexion à un système SAP BW et à une base de données SAP HANA et de stocker cette connexion dans l'arborescence Repository.
Data Integration > Metadata
Talend MDM
L'assistant de métadonnées Talend MDM vous permet de centraliser les détails d'une ou de plusieurs connexions MDM dans l'arborescence Repository.
Qualité de données
Capacités de profiling de données et composants standards
Cette fonctionnalité vous permet d'utiliser :
  • La perspective Profiling : Utilisez des modèles et des indicateurs prédéfinis ou personnalisés pour analyser les données stockées dans différentes sources de données.
  • La perspective Data Explorer : Explorez et interrogez les résultats des analyses de profiling effectuées sur les données.
  • Les composants standards pour la qualité des données
Qualité de données
Composants Spark Batch et dépendances Big Data
Cette fonctionnalité vous permet d'utiliser les composants Spark Batch pour la qualité des données. Les fonctionnalités Big Data sont aussi installées pour que les composants fonctionnent correctement.
Qualité de données
Composants Spark Streaming et dépendances Big Data
Cette fonctionnalité vous permet d'utiliser les composants Spark Streaming pour la qualité des données. Les fonctionnalités Big Data sont aussi installées pour que les composants fonctionnent correctement.
Intégration d'application
Data Services (Service de données) et Routes
Data Service (service des données) combine l'intégration de données et les services Web, et permet la création graphique d'un Service incluant un fichier WSDL et un ou plusieurs Jobs, couvrant toutes les sources et les cibles nécessaires à la publication du service Web. Une Route définit comment les messages sont déplacés d'un service (ou endpoint) à un autre.
Big Data
Spark Batch
Cette fonctionnalité vous permet de créer des Jobs Spark Batch.
Big Data
Spark Streaming
Cette fonctionnalité vous permet de créer des Jobs Spark Streaming.
Big Data > Distributions Amazon EMR 5.29.0 Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur la distribution Amazon EMR 5.29.0.
Big Data > Distributions Amazon EMR 6.2.0 Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur la distribution Amazon EMR 6.2.0.
Big Data > Distributions Azure Synapse Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur Azure Synapse Analytics avec des pools Apache Spark comme distribution.
Big Data > Distributions Cloudera CDH Dynamic Distribution (Distribution dynamique Cloudera CDH) Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur Cloudera CDH à l'aide de distributions statiques (CDH 6.1, CDH 6.2 et CDH 6.3) ou dynamiques.
Big Data > Distributions Cloudera Data Platform Dynamic Distribution (Distribution dynamique Cloudera Data Platform) Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur Cloudera Data Platform à l'aide de distributions statiques (CDP 7.1) ou dynamiques.
Big Data > Distributions Databricks 5.5 Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur la distribution Databricks 5.5.
Big Data > Distributions Databricks 6.4 Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur la distribution Databricks 6.4.
Big Data > Distributions Databricks 7.3 LTS Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur la distribution Databricks 7.3 LTS.
Big Data > Distributions Hortonworks HDP Dynamic Distribution (Distribution dynamique Hortonworks HDP) Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur Hortonworks HDP à l'aide de distributions statiques ou dynamiques.
Big Data > Distributions Microsoft Azure HDInsight 4.0 Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur la distribution Microsoft Azure HDInsight 4.0.
Big Data > Universal Distribution (recommandé) Universal Distribution (Spark 2.4.x) Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur Universal distribution (distribution universelle) avec Spark 2.4.x.
Big Data > Universal Distribution (recommandé) Universal Distribution (Distribution universelle) (Spark 3.0.x) Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur Universal distribution (distribution universelle) avec Spark 3.0.x.
Big Data > Universal Distribution (recommandé) Universal Distribution (Distribution universelle) (Spark 3.1.x) Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur Universal distribution (distribution universelle) avec Spark 3.1.x.
Big Data > Universal Distribution (recommandé) Universal Distribution (Distribution universelle) (Spark 3.2.x) Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur Universal distribution (distribution universelle) avec Spark 3.2.x.
Big Data > Universal Distribution (recommandé) Universal Distribution (Distribution universelle) (Spark 3.3.x) Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur Universal distribution (distribution universelle) avec Spark 3.3.x.
Big Data > Universal Distribution (recommandé) Universal Distribution (Distribution universelle) (Spark 3.2.x) Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur Universal distribution (distribution universelle) avec Spark 3.2.x.
Big Data > Universal Distribution (recommandé) Universal Distribution (Distribution universelle) (Spark 3.3.x) Cette fonctionnalité vous permet d'exécuter vos Jobs Spark sur Universal distribution (distribution universelle) avec Spark 3.3.x.
Data Mapper
Talend Data Mapper User Guide
Talend Data Mapper vous permet de mapper des enregistrements de données et des documents complexes, puis d'exécuter des transformations dans des Jobs d'intégration de données et des Routes.
Data Mapper
Talend Data Mapper User Guide
Talend Data Mapper for Spark (pour Spark) vous permet de mapper des enregistrements de données et des documents complexes, puis d'exécuter des transformations dans des Jobs Big Data.
Data Mapper > Standard structures (Structures standards)
HL7 v2.1
Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.1.
Data Mapper > Standard structures (Structures standards)
HL7 v2.2
Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.2.
Data Mapper > Standard structures (Structures standards)
HL7 v2.3
Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.3.
Data Mapper > Standard structures (Structures standards)
HL7 v2.3.1
Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.3.1.
Data Mapper > Standard structures (Structures standards)
HL7 v2.4
Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.4.
Data Mapper > Standard structures (Structures standards)
HL7 v2.5
Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.5.
Data Mapper > Standard structures (Structures standards)
HL7 v2.5.1
Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.5.1.
Data Mapper > Standard structures (Structures standards)
HL7 v2.6
Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.6.
Data Mapper > Standard structures (Structures standards)
HL7 v2.7
Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.7.
Data Mapper > Standard structures (Structures standards)
HL7 v2.7.1
Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.7.1.
Data Mapper > Standard structures (Structures standards)
HL7 v2.8
Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.8.
Data Mapper > Standard structures (Structures standards)
HL7 v2.8.1
Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard HL7 v2.8.1.
Data Mapper > Standard structures (Structures standards)
X12 4010 HIPAA
Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard X12 4010 HIPAA.
Data Mapper > Standard structures (Structures standards)
Talend Data Mapper - X12 HIPAA Specifications
Cette fonctionnalité vous permet d'utiliser Talend Data Mapper avec des données au standard X12 5010 HIPAA.
Master Data Management
Master Data Management
Talend MDM relève les défis de création et de gestion de données maître pour tous types de sociétés dans lesquelles les données sont stockées sous différents formats et dans plusieurs systèmes. Il regroupe toutes les données maître d'une société dans un hub centralisé, et possède toutes les fonctionnalités essentielles à une application MDM : modélisation avancée, interface Web dynamique orientée modèle, recherche plein texte, déclenchement d'événement, sécurité basée sur les rôles, etc.

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – faites-le-nous savoir.