Propriétés du tELTHiveOutput Standard
Ces propriétés sont utilisées pour configurer le tELTHiveOutput s'exécutant dans le framework de Jobs Standard.
Le composant tELTHiveOutput Standard appartient à la famille ELT.
Le composant de ce framework est disponible dans tous les produits Talend avec Big Data et dans Talend Data Fabric.
Basic settings
Action on data |
Sélectionnez l'action à effectuer sur les données à écrire dans la table Hive. Avec l'option Insert, les données à écrire dans la table Hive sont écrites à la suite des données existantes, s'il y en a. |
Schema |
Un schéma est une description de lignes. Il définit le nombre de champs qui sont traités et passés au composant suivant. Le schéma est soit local (Built-in), soit distant dans le Repository. |
|
Built-in : le schéma est créé et conservé localement pour ce composant seulement. Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets. |
Modifier le schéma |
Créez le schéma en cliquant sur le bouton Edit Schema. Si le schéma est en mode Repository, trois options sont disponibles :
|
Default Table Name |
Saisissez le nom de la table par défaut, entre guillemets doubles. |
Default schema name |
Saisissez le nom du schéma de base de données par défaut auquel la table de sortie utilisée est liée. |
Table name from connection name is variable |
Cochez cette case lorsque le nom de la connexion à ce composant est configuré comme une variable, par exemple une variable de contexte. |
Utiliser un nom de table différent |
Cochez cette case afin de définir le nom d'une table de sortie différente, entre guillemets doubles, dans le champ Table name qui s'affiche. Si cette table est liée à un schéma de base de données différent de celui par défaut, vous devez également saisir le nom de ce schéma de base de données. La syntaxe est la suivante : nom_du_schéma.nom_de_la_table. |
The target table uses the Parquet format |
Si la table dans laquelle vous devez écrire les données est une table Parquet, cochez cette case. Dans la liste Compression qui apparaît, sélectionnez le mode de compression à utiliser pour gérer le fichier Parquet. Le mode par défaut est Uncompressed. |
Field Partition |
Dans la colonne Partition Column, saisissez le nom, entre guillemets doubles, de la colonne de partition de la table Hive dans laquelle vous souhaitez écrire les données. Dans la colonne Partition Value, saisissez la valeur que vous souhaitez utiliser, entre guillemets doubles, pour la colonne de partition correspondante. |
Mapping |
Sélectionnez le fichier de mapping des métadonnées pour la base de données à utiliser. Ce fichier est utilisé pour la conversion de type des données entre la base de données et Java. Pour plus d'informations concernant le mapping de métadonnées, consultez la documentation relative au Mapping de types.
Note InformationsRemarque : Vous pouvez utiliser le mapping Hive pour supporter Databricks Delta Lake.
|
Paramètres avancés
tStatCatcher Statistics |
Cochez cette case pour collecter les données de log au niveau des composants. |
Variables globales
Variables globales |
ERROR_MESSAGE : message d'erreur généré par le composant lorsqu'une erreur survient. Cette variable est une variable After et retourne une chaîne de caractères. Cette variable fonctionne uniquement si la case Die on error est décochée, lorsque le composant contient cette case. Une variable Flow fonctionne durant l'exécution d'un composant. Une variable After fonctionne après l'exécution d'un composant. Pour renseigner un champ ou une expression à l'aide d'une variable, appuyez sur les touches Ctrl+Espace pour accéder à la liste des variables. À partir de cette liste, vous pouvez choisir la variable que vous souhaitez utiliser. Pour plus d'informations concernant les variables, consultez Utiliser les contextes et les variables. |
Utilisation
Règle d'utilisation |
L'utilisation du tELTHiveMap est étroitement liée à celle des composants tELTHiveInput et tELTHiveOutput. Notez que le lien de sortie (output) à utiliser avec ces deux composants doit respecter strictement la syntaxe du nom de la table. Si le Studio Talend utilisé pour vous connecter à une base de données Hive fonctionne sous Windows, vous devez créer manuellement un dossier appelé tmp à la racine du disque où le Studio Talend est installé. Note InformationsRemarque :
Les composants ELT ne traitent pas le flux de données lui-même mais uniquement les informations du schéma. |
Utilisation avec Dataproc |
Les composants ELT Hive nécessitent l'installation de Tez dans le cluster Google Cloud Dataproc à utiliser.
|