Propriétés du tMapRDBOutput MapReduce (déprécié)
Ces propriétés sont utilisées pour configurer le tMapRDBOutput s'exécutant dans le framework de Jobs MapReduce.
Le composant tMapRDBOutput MapReduce appartient aux familles MapReduce et Bases de données.
Le composant de ce framework est disponible dans tous les produits Talend avec Big Data et dans Talend Data Fabric.
Le framework MapReduce est déprécié à partir de la version 7.3 de Talend. Utilisez des Jobs Talend pour Apache Spark afin d'accomplir vos tâches d'intégration.Basic settings
Property type |
Peut être Built-In ou Repository. Built-In : aucune propriété n'est stockée de manière centrale. Repository : Sélectionnez le fichier dans lequel sont stockées les propriétés du composant. Les propriétés sont stockées centralement sous le nœud Hadoop Cluster de la vue Repository. |
Distribution et Version |
Sélectionnez la distribution MapR à utiliser. Seules les versions 5.2 et supérieures de MapR sont supportées par les composants MapRDB. Si la distribution que vous devez utiliser pour votre base de données MapRDB n'est pas officiellement supportée par ce composant MapRBD, c'est-à-dire, si la distribution de MapR ne s'affiche pas dans la liste déroulante Version de ce composant ou si cette distribution n'est pas MapR, sélectionnez Custom.
|
Zookeeper quorum |
Saisissez le nom ou l'URL du service Zookeeper utilisé pour coordonner les transactions entre votre Studio et votre base de données. Notez que, lorsque vous configurez Zookeeper, vous pouvez avoir besoin de configurer explicitement la propriété zookeeper.znode.parent pour définir le chemin vers le nœud znode racine contenant tous les znodes créés et utilisés par votre base de données. Cochez la case la case Set Zookeeper znode parent afin de définir cette propriété. |
Zookeeper client port |
Saisissez le numéro du port d'écoute client du service Zookeeper que vous utilisez. |
Use kerberos authentication |
Si la base de données choisie utilise la sécurité Kerberos, cochez cette case puis saisissez le nom des principaux dans les champs affichés. Vous pouvez trouver cette information dans le fichier hbase-site.xml du cluster à utiliser.
Si vous souhaitez utiliser un fichier Kerberos keytab pour vous identifier, cochez la case Use a keytab to authenticate. Un fichier Keytab contient les paires des Principaux et clés cryptées Kerberos. Vous devez saisir le principal à utiliser dans le champ Principal et le chemin d'accès au fichier keytab dans le champ Keytab. Ce fichier keytab doit être stocké sur la machine où s'exécute votre Job, par exemple, sur un serveur de Jobs Talend. l'utilisateur ou l'utilisatrice exécutant un Job utilisant un fichier Keytab n'est pas nécessairement celui désigné par un Principal mais doit avoir le droit de lire le fichier Keytab utilisé. Par exemple, le nom d'utilisateur ou d'utilisatrice que vous utilisez pour exécuter le Job est user1 et le principal à utiliser est guest. Dans cette situation, assurez-vous que user1 a les droits de lecture pour le fichier Keytab à utiliser. |
Schema et Edit schema |
Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs. Créez le schéma en cliquant sur le bouton Edit Schema. Si le schéma est en mode Repository, trois options sont disponibles :
|
|
Built-in : le schéma est créé et conservé localement pour ce composant seulement. |
|
Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets. |
Table name |
Saisissez le nom de la table dans laquelle écrire les données. Cette table doit exister. |
Table Namespace mappings |
Saisissez la chaîne de caractères à utiliser pour construire le mapping entre une table Apache HBase table et une table MapR. Pour plus d'informations concernant la syntaxe valide à utiliser, consultez http://doc.mapr.com/display/MapR40x/Mapping+Table+Namespace+Between+Apache+HBase+Tables+and+MapR+Tables (uniquement en anglais) (en anglais). |
Row key column |
Sélectionnez la colonne utilisée comme clé de ligne de la table. Si nécessaire, cochez la case Store row key column to HBase column pour que la clé de ligne appartienne à une famille de colonne spécifique. |
Families |
Renseignez cette table afin de mapper les colonnes de la table à utiliser avec les colonnes du schéma défini pour le flux de données à traiter. La colonne Column de cette table est automatiquement renseignée une fois le schéma défini. Dans la colonne Family name, saisissez les familles de colonnes que vous souhaitez créer ou utiliser pour grouper les colonnes dans la colonne Column. Pour plus d'informations concernant les familles de colonnes, consultez la documentation Apache Column families (en anglais). |
Advanced settings
Properties |
Si vous devez utiliser une configuration personnalisée pour votre base de données, renseignez cette table avec la ou les propriétés à personnaliser. Lors de l'exécution, la ou les propriété(s) personnalisée(s) vont écraser les propriétés utilisées par le Studio Talend. Par exemple, vous devez définir la valeur de la propriété dfs.replication à 1 pour la configuration de base de données. Vous devez ajouter une ligne à cette table, à l'aide du bouton [+] et saisir le nom et la valeur de cette propriété dans la ligne. |
Variables globales
Variables globales |
ERROR_MESSAGE : message d'erreur généré par le composant lorsqu'une erreur survient. Cette variable est une variable After et retourne une chaîne de caractères. Cette variable fonctionne uniquement si la case Die on error est décochée, lorsque le composant contient cette case. Une variable Flow fonctionne durant l'exécution d'un composant. Pour renseigner un champ ou une expression à l'aide d'une variable, appuyez sur les touches Ctrl+Espace pour accéder à la liste des variables. À partir de cette liste, vous pouvez choisir la variable que vous souhaitez utiliser. Pour plus d'informations concernant les variables, consultez le Guide d'utilisation du Studio Talend. |
Utilisation
Règle d'utilisation |
Dans un Job Map/Reduce Talend, ce composant est utilisé en tant que composant de fin et requiert un composant de transformation comme lien d'entrée. Les autres composants utilisés avec lui doivent également être des composants Map/Reduce. Ils génèrent nativement du code Map/Reduce pouvant être exécuté directement dans Hadoop. La configuration Hadoop à utiliser pour le Job complet et la distribution Hadoop à utiliser pour le composant doit être la même. Ce composant requiert que les paramètres de la distribution Hadoop soient configurés séparément, afin de lancer le pilote de la base de données uniquement lorsque ce composant est utilisé. |
Hadoop Connection |
Vous devez utiliser l'onglet Hadoop Configuration de la vue Run afin de définir la connexion à une distribution Hadoop donnée pour le Job complet. Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie. |
Prérequis |
Avant de commencer, vérifiez que tous les prérequis de l'IP de Loopback (rebouclage) attendus par votre base de données sont respectés. La distribution Hadoop doit être correctement installée afin de garantir les interactions avec le Studio Talend . La liste suivante présente des informations d'exemple relatives à MapR.
Pour plus d'informations concernant l'installation d'une distribution Hadoop, consultez le manuel correspondant à la distribution Hadoop que vous utilisez. |