Propriétés du tHDFSInput MapReduce (déprécié)
Ces propriétés sont utilisées pour configurer le tHDFSInput s'exécutant dans le framework de Jobs MapReduce.
Le composant tHDFSInput MapReduce appartient à la famille MapReduce.
Le composant de ce framework est disponible dans tous les produits Talend avec Big Data et dans Talend Data Fabric.
Le framework MapReduce est déprécié à partir de la version 7.3 de Talend. Utilisez des Jobs Talend pour Apache Spark afin d'accomplir vos tâches d'intégration.Basic settings
Property type |
Peut être Built-In ou Repository. Built-In : aucune propriété n'est stockée de manière centrale. Repository : Sélectionnez le fichier dans lequel sont stockées les propriétés du composant. Les propriétés sont stockées centralement sous le nœud Hadoop Cluster de la vue Repository. Pour plus d'informations concernant le nœud Hadoop Cluster, consultez le Guide de prise en main. |
Schema et Edit Schema |
Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs. Créez le schéma en cliquant sur le bouton Edit Schema.
Note InformationsRemarque : Si vous effectuez des modifications, le schéma passe automatiquement en type built-in.
|
Built-in : le schéma est créé et conservé localement pour ce composant seulement. |
|
Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets. |
|
Folder/File |
Parcourez votre système ou saisissez le chemin d'accès aux données à utiliser dans le système de fichiers. Si le chemin d'accès défini pointe vers un dossier, ce composant lit tous les fichiers stockés dans le dossier, par exemple /user/talend/in. Si les sous-dossiers existent, ils sont automatiquement ignorés, sauf si vous définissez la propriété mapreduce.input.fileinputformat.input.dir.recursive à true dans la table Hadoop properties, dans l'onglet Hadoop configuration. Si vous souhaitez spécifier plus d'un fichier ou répertoires dans ce champ, séparez chaque chemin d'accès par une virgule (,). Si le fichier à lire est un fichier compressé, saisissez son nom et son extension, puis tHDFSInput décompresse automatiquement le fichier lors de l'exécution. Les formats de compression, ainsi que les extensions correspondantes, sont :
Assurez-vous que la connexion à la distribution Hadoop utilisée est correctement configurée dans l'onglet Hadoop configuration de la vue Run. |
Die on error |
Cochez cette case pour arrêter l'exécution du Job lorsqu'une erreur survient. Décochez la case pour ignorer les lignes en erreur et terminer le traitement des lignes sans erreur. Lorsque les erreurs sont ignorées, vous pouvez récupérer les lignes en erreur en utilisant la connexion Row > Reject. |
Type |
Sélectionnez le type de fichier à traiter. Le type de fichier peut être :
|
Row separator |
Saisissez le séparateur utilisé pour identifier la fin d'une ligne. Ce champ n'est pas disponible pour un fichier Sequence. |
Field separator |
Saisissez un caractère, une chaîne de caractères ou une expression régulière pour séparer les champs des données transférées. Ce champ n'est pas disponible pour un fichier Sequence. |
Header |
Saisissez le nombre de lignes à ignorer au début du fichier. Par exemple, saisissez 0 pour ne pas ignorer de ligne dans les données sans en-tête et 1 pour les données dont l'en-tête se trouve dans la première ligne. Ce champ n'est pas disponible pour un fichier Sequence. |
Custom Encoding |
Il est possible de rencontrer des problèmes d'encodage lorsque vous traitez les données stockées. Dans ce cas, cochez cette case pour afficher la liste Encoding. Sélectionnez l'encodage à utiliser à partir de la liste ou sélectionnez Custom et définissez-le manuellement. Cette option n'est pas disponible pour un fichier Sequence. |
Advanced settings
Advanced separator (for number) |
Cochez cette case pour modifier le séparateur utilisé pour les nombres. Par défaut, le séparateur des milliers est une virgule (,) et le séparateur décimal est un point (.). |
Supprimer les espaces en début et fin de champ dans toutes les colonnes |
Cochez cette case pour supprimer les espaces en début et fin de toutes les colonnes. Lorsque cette case est cochée, la table Check column to trim est affichée, ce qui vous permet de sélectionner les colonnes desquelles vous souhaitez enlever les espaces en début et en fin de champ. |
Check column to trim |
Cette table est automatiquement renseignée avec le schéma utilisé. Cochez la (les) case(s) correspondant à la (aux) colonne(s) dont vous souhaitez supprimer les espaces en début et en fin de champ. |
tStatCatcher Statistics |
Cochez cette case pour collecter les données de log au niveau des composants. |
Variables globales
Variables globales |
ERROR_MESSAGE : message d'erreur généré par le composant lorsqu'une erreur survient. Cette variable est une variable After et retourne une chaîne de caractères. Cette variable fonctionne uniquement si la case Die on error est décochée, lorsque le composant contient cette case. Une variable Flow fonctionne durant l'exécution d'un composant. Pour renseigner un champ ou une expression à l'aide d'une variable, appuyez sur les touches Ctrl+Espace pour accéder à la liste des variables. À partir de cette liste, vous pouvez choisir la variable que vous souhaitez utiliser. Pour plus d'informations concernant les variables, consultez le Guide d'utilisation du Studio Talend. |
Utilisation
Règle d'utilisation |
Dans un Job Talend Map/Reduce, ce composant est utilisé comme composant de début et requiert un composant de transformation comme lien de sortie. Les autres composants utilisés avec lui doivent également être des composants Map/Reduce. Ils génèrent nativement du code Map/Reduce pouvant être exécuté directement dans Hadoop. Une fois qu'un Job Map/Reduce est ouvert dans l'espace de modélisation graphique, le tHDFSInput et toute la famille MapReduce apparaissent dans la Palette du Studio. Notez que, dans cette documentation, sauf mention contraire, un scénario présente uniquement des Jobs Standard, c'est-à-dire des Jobs Talend traditionnels d'intégration de données et non des Jobs Map/Reduce. |
Hadoop Connection |
Vous devez utiliser l'onglet Hadoop Configuration de la vue Run afin de définir la connexion à une distribution Hadoop donnée pour le Job complet. Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie. |