Propriétés du tDataDecrypt pour Apache Spark Batch
Ces propriétés sont utilisées pour configurer le tDataDecrypt s'exécutant dans le framework de Jobs Spark Batch.
Le composant tDataDecrypt Standard appartient à la famille Qualité de données.
Le composant de ce framework est disponible dans Talend Data Management Platform, Talend Big Data Platform, Talend Real Time Big Data Platform, Talend Data Services Platform et dans Talend Data Fabric.
Basic settings
Schema et Edit Schema |
Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs. Cliquez sur Sync columns pour récupérer le schéma du composant précédent dans le Job. Créez le schéma en cliquant sur le bouton Edit Schema. Si le schéma est en mode Repository, trois options sont disponibles :
|
Built-in : le schéma est créé et conservé localement pour ce composant seulement. |
|
Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets. |
|
Password |
Saisissez le mot de passe utilisé pour chiffrer le fichier cryptographique généré par le composant tDataEncrypt. Cette valeur doit se trouver entre guillemets doubles. |
Cryptographic file path |
Saisissez le chemin du fichier cryptographique utilisé pour chiffrer les données d'entrée avec le composant tDataEncrypt. Cette valeur doit se trouver entre guillemets doubles. |
Decryption |
Cochez la case Decrypt correspondante pour déchiffrer les colonnes d'entrée. Les colonnes qui ne sont pas sélectionnées ne seront pas déchiffrées. Configurez correctement le schéma de sortie du composant pour définir le type des colonnes à déchiffrer sur String. Vous ne pouvez déchiffrer :
|
Advanced settings
tStat Catcher Statistics |
Cochez cette case pour collecter les métadonnées de traitement du Job, aussi bien au niveau du Job qu'au niveau de chaque composant. |
Utilisation
Règle d'utilisation |
Ce composant est généralement utilisé comme composant intermédiaire et nécessite un composant d'entrée et un composant de sortie. |
Connexion à Spark |
Dans l'onglet Spark Configuration de la vue Run, définissez la connexion à un cluster Spark donné pour le Job complet. De plus, puisque le Job attend ses fichiers .jar dépendants pour l'exécution, vous devez spécifier le répertoire du système de fichiers dans lequel ces fichiers .jar sont transférés afin que Spark puisse accéder à ces fichiers :
Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie. |