Propriétés du tLogRow pour Apache Spark Batch
Ces propriétés sont utilisées pour configurer le tLogRow s'exécutant dans le framework de Jobs Spark Batch.
Le composant tLogRow Spark Batch appartient à la famille Divers.
Le composant de ce framework est disponible dans tous les produits Talend avec Big Data et dans Talend Data Fabric.
Basic settings
Define a storage configuration component |
Sélectionnez le composant de configuration à utiliser pour fournir les informations de configuration pour la connexion au système de fichiers cible, comme HDFS. Si vous laissez cette case décochée, le système de fichiers cible est le système local. Le composant de configuration à utiliser doit se trouver dans le même Job. Par exemple, si vous avez ajouté un composant tHDFSConfiguration dans votre Job, vous pouvez le sélectionner pour écrire le résultat dans un système HDFS donné. |
Schema et Edit schema |
Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs. Créez le schéma en cliquant sur le bouton Edit Schema. Si le schéma est en mode Repository, trois options sont disponibles :
|
Built-in : le schéma est créé et conservé localement pour ce composant seulement. |
|
Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets. |
|
Sync colonnes | Cliquez sur ce bouton pour synchroniser le schéma de sortie avec celui d'entrée. Cette fonction n'est disponible que quand le composant est relié au composant précédent via un lien Row. |
Basic | Affiche le flux de sortie en mode basique. |
Table | Affiche le flux de sortie dans des cellules de table. |
Vertical |
Affiche chaque ligne du flux de sortie comme une liste de valeurs clé. Quand cette option est activée, vous pouvez, pour chaque ligne de sortie, choisir d'afficher le nom unique, le libellé du composant ou les deux. |
Separator (mode basique uniquement) |
Saisissez le séparateur qui délimitera les données dans la console. |
Print header (mode basique uniquement) |
Activez cette option pour inclure l'en-tête du flux d'entrée dans l'affichage de sortie. |
Print component unique name in front of each output row (mode basique uniquement) |
Cochez cette case pour afficher le nom unique du composant situé devant chaque ligne d'entrée afin de différencier les sorties au cas où plusieurs composants tLogRow sont utilisés. |
Print schema column name in front of each value (mode basique uniquement) |
Cochez cette case pour récupérer les libellés des colonnes du schéma de sortie. |
Use fixed length for values (mode basique uniquement) |
Cochez cette case pour paramétrer une largeur fixe aux valeurs affichées. |
Advanced settings
Use local timezone for date | Cochez cette case pour utiliser la date locale de la machine sur laquelle votre Job est exécuté. Si vous ne cochez pas cette case, UTC est automatiquement utilisé pour formater les données de type Date. |
Utilisation
Règle d'utilisation |
Ce composant est utilisé comme étape intermédiaire ou finale. Ce composant, ainsi que la Palette Spark Batch à laquelle il appartient, ne s'affiche que lorsque vous créez un Job Spark Batch. Notez que, dans cette documentation, sauf mention contraire, un scénario présente uniquement des Jobs Standard, c'est-à-dire des Jobs Talend traditionnels d'intégration de données. |
Connexion à Spark |
Dans l'onglet Spark Configuration de la vue Run, définissez la connexion à un cluster Spark donné pour le Job complet. De plus, puisque le Job attend ses fichiers .jar dépendants pour l'exécution, vous devez spécifier le répertoire du système de fichiers dans lequel ces fichiers .jar sont transférés afin que Spark puisse accéder à ces fichiers :
Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie. |