Accéder au contenu principal Passer au contenu complémentaire

Propriétés du tMapRDBInput Standard

Ces propriétés sont utilisées pour configurer le tMapRDBInput s'exécutant dans le framework de Jobs Standard.

Le composant tMapRDBInput Standard appartient aux familles Big Data et Bases de données NoSQL.

Le composant de ce framework est disponible dans tous les produits Talend avec Big Data et dans Talend Data Fabric.

Basic settings

Property type

Peut être Built-In ou Repository.

Built-In : aucune propriété n'est stockée de manière centrale.

Repository : Sélectionnez le fichier dans lequel sont stockées les propriétés du composant.

Les propriétés sont stockées centralement sous le nœud Hadoop Cluster de la vue Repository.

Use an existing connection

Cochez cette case et sélectionnez le composant de connexion adéquat dans la liste Component list pour réutiliser les paramètres d'une connexion que vous avez déjà définie.

Hadoop version of the distribution

Cette liste s'affiche uniquement lorsque vous avez sélectionné Custom dans la liste des distributions à connecter à un cluster n'étant pas officiellement supporté par le Studio Talend. Dans cette situation, sélectionnez la version de Hadoop de ce cluster personnalisé, Hadoop 1 ou Hadoop 2.

Zookeeper quorum

Saisissez le nom ou l'URL du service Zookeeper utilisé pour coordonner les transactions entre votre Studio Talend et votre base de données. Notez que, lorsque vous configurez ZooKeeper, vous pouvez avoir besoin de configurer explicitement la propriété zookeeper.znode.parent pour définir le chemin vers le nœud Znode racine contenant tous les Znodes créés et utilisés par votre base de données. Cochez la case la case Set Zookeeper znode parent afin de définir cette propriété.

Zookeeper client port

Saisissez le numéro du port d'écoute client du service ZooKeeper que vous utilisez.

Use kerberos authentication

Si la base de données choisie utilise la sécurité Kerberos, cochez cette case puis saisissez le nom des principaux dans les champs HBase Master principal et HBase Region Server principal. Vous pouvez trouver cette information dans le fichier hbase-site.xml du cluster à utiliser.

Si vous souhaitez utiliser un fichier Kerberos keytab pour vous identifier, cochez la case Use a keytab to authenticate. Un fichier Keytab contient les paires des Principaux et clés cryptées Kerberos. Vous devez saisir le principal à utiliser dans le champ Principal et le chemin d'accès au fichier keytab dans le champ Keytab. Ce fichier keytab doit être stocké sur la machine où s'exécute votre Job, par exemple, sur un Talend JobServer.

l'utilisateur ou l'utilisatrice exécutant un Job utilisant un fichier Keytab n'est pas nécessairement celui désigné par un Principal mais doit avoir le droit de lire le fichier Keytab utilisé. Par exemple, le nom d'utilisateur ou d'utilisatrice que vous utilisez pour exécuter le Job est user1 et le principal à utiliser est guest. Dans cette situation, assurez-vous que user1 a les droits de lecture pour le fichier Keytab à utiliser.

Schema et Edit schema

Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs.

Créez le schéma en cliquant sur le bouton Edit Schema. Si le schéma est en mode Repository, trois options sont disponibles :

  • View schema : sélectionnez cette option afin de voir uniquement le schéma.

  • Change to built-in property : sélectionnez cette option pour passer le schéma en mode Built-In et effectuer des modifications locales.

  • Update repository connection : sélectionnez cette option afin de modifier le schéma stocké dans le référentiel et décider de propager ou non les modifications à tous les Jobs.

    Si vous souhaitez propager les modifications uniquement au Job courant, cliquez sur No et sélectionnez à nouveau la métadonnée du schéma dans la fenêtre Repository Content.

 

Built-in : le schéma est créé et conservé localement pour ce composant seulement.

 

Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets.

Set table Namespace mappings

Saisissez la chaîne de caractères à utiliser pour construire le mapping entre une table Apache HBase table et une table MapR.

Pour plus d'informations concernant la syntaxe valide à utiliser, consultez http://doc.mapr.com/display/MapR40x/Mapping+Table+Namespace+Between+Apache+HBase+Tables+and+MapR+Tables (en anglais).

Table name

Saisissez le nom de la table de la base de données de laquelle vous souhaitez extraire les colonnes.

Define a row selection

Cochez cette case et, dans les champs Start row et End row, saisissez les Row Keys correspondants afin de spécifier la plage de lignes que vous souhaitez faire extraire par le composant.

À la différence des filtres que vous pouvez définir à l'aide de l'option Is by filter nécessitant le chargement de tous les enregistrements avant de pouvoir filtrer les lignes à utiliser, cette fonctionnalité vous permet de sélectionner directement les lignes qui vous intéressent.

Mapping

Renseignez cette table afin de mapper les colonnes de la table à utiliser avec les colonnes du schéma défini pour le flux de données à traiter.

Advanced settings

tStatCatcher Statistics

Cochez cette case pour collecter les données de log au niveau des composants.

Properties

Si vous devez utiliser une configuration personnalisée pour votre base de données, renseignez cette table avec la ou les propriétés à personnaliser. Lors de l'exécution, les propriétés personnalisées vont écraser les propriétés utilisées par le Studio Talend.

Par exemple, vous devez définir la valeur de la propriété dfs.replication à 1 pour la configuration de base de données. Vous devez ajouter une ligne à cette table, à l'aide du bouton [+] et saisir le nom et la valeur de cette propriété dans la ligne.

Note InformationsRemarque :

Cette table n'est pas disponible quand vous utilisez une connexion existante en cochant la case Using an existing connection dans la vue Basic settings.

Is by filter

Cochez cette case pour utiliser des filtres HBase afin d'effectuer une sélection granulaire fine depuis votre base de données, comme une sélection de clés ou de valeurs, selon des expressions régulières.

Une fois cette case cochée, la table Filter utilisée pour définir les conditions de filtre devient disponible.

Cette fonctionnalité tire parti des filtres fournis par HBase et sujets aux contraintes présentées dans la documentation Apache HBase. Un niveau avancé de connaissances de HBase est requis pour que les utilisateurs et utilisatrices puissent utiliser pleinement ces filtres.

Logical operation
Sélectionnez l'opérateur à utiliser pour définir la relation logique entre les filtres. Les opérateurs disponibles sont :
  • And : chaque condition de filtre définie doit être satisfaite. Elle représente la relation FilterList.Operator.MUST_PASS_ALL.

  • Or : au moins une des conditions de filtre définie doit être satisfaite. Elle représente la relation FilterList.Operator.MUST_PASS_ONE.

Filter
Cliquez sur le bouton sous cette table pour ajouter autant de lignes que nécessaire. Chaque ligne représente un filtre. Les paramètres que vous devez configurer pour un filtre sont :
  • Filter type : la liste déroulante présente les types de filtre prédéfinis par HBase. Sélectionnez le type de filtre à utiliser.

  • Filter column : saisissez le nom de la colonne (qualifier) sur laquelle vous devez appliquer le filtre actif. Ce paramètre est obligatoire selon le type de filtre et le comparateur que vous utilisez. Par exemple, ce paramètre n'est pas utilisé par le type Row Filter mais est requis pour le type Single Column Value Filter.

  • Filter family : saisissez la famille de colonne sur laquelle vous devez appliquer le filtre actif. Ce paramètre est obligatoire selon le type de filtre et le comparateur que vous utilisez. Par exemple, ce paramètre n'est pas utilisé par le type Row Filter mais est requis pour le type Single Column Value Filter.

  • Filter operation : sélectionnez dans la liste déroulante l'opération à utiliser pour le filtre actif.

  • Filter Value : saisissez le valeur sur laquelle utiliser l'opérateur sélectionné dans la liste Filter operation.

  • Filter comparator type : sélectionnez le type de comparateur à combiner au filtre que vous utilisez.

Selon le type de filtre (Filter type) que vous utilisez, certains paramètres, voire tous les paramètres sont obligatoires. Pour plus d'informations, consultez Filtres HBase.

Variables globales

Variables globales

NB_LINE : nombre de lignes lues par un composant d'entrée ou passées à un composant de sortie. Cette variable est une variable After et retourne un entier.

ERROR_MESSAGE : message d'erreur généré par le composant lorsqu'une erreur survient. Cette variable est une variable After et retourne une chaîne de caractères. Cette variable fonctionne uniquement si la case Die on error est décochée, lorsque le composant contient cette case.

Une variable Flow fonctionne durant l'exécution d'un composant. Une variable After fonctionne après l'exécution d'un composant.

Pour renseigner un champ ou une expression à l'aide d'une variable, appuyez sur les touches Ctrl+Espace pour accéder à la liste des variables. À partir de cette liste, vous pouvez choisir la variable que vous souhaitez utiliser.

Pour plus d'informations concernant les variables, consultez Utiliser les contextes et les variables.

Utilisation

Règle d'utilisation

Ce composant est composant de début d'un Job et requiert toujours un lien de sortie.

Prérequis

Avant de commencer, vérifiez que tous les prérequis de l'IP de Loopback (rebouclage) attendus par votre base de données sont respectés.

La distribution Hadoop doit être correctement installée afin de garantir les interactions avec le Studio Talend . La liste suivante présente des informations d'exemple relatives à MapR.

  • Assurez-vous d'avoir installé le client MapR sur la même machine que le Studio Talend et d'avoir ajouté la bibliothèque client de MapR dans la variable PATH de cette machine. D'après la documentation de MapR, la ou les bibliothèques du client MapR correspondant à chaque OS peuvent être trouvées dans MAPR_INSTALL\ hadoop\hadoop-VERSION\lib\native. Par exemple, pour Windows, la bibliothèque est lib\MapRClient.dll dans le fichier Jar du client MapR.

    Si vous n'ajoutez pas de librairie, il est possible que vous rencontriez l'erreur suivante : no MapRClient in java.library.path.

  • Configurez l'argument -Djava.library.path, par exemple, dans la zone Job Run VM arguments de la vue Run/Debug de la boîte de dialogue Preferences dans le menu Window. Cet argument fournit au Studio Talend le chemin d'accès à la bibliothèque native du client MapR. Cela permet aux utilisateurs et utilisatrices en souscription d'utiliser entièrement l'aperçu des données (Data viewer) afin de visualiser localement dans le Studio Talend les données stockées dans MapR.

Pour plus d'informations concernant l'installation d'une distribution Hadoop, consultez le manuel correspondant à la distribution Hadoop que vous utilisez.

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – faites-le-nous savoir.