Propriétés du tHiveInput pour Apache Spark Batch
Ces propriétés sont utilisées pour configurer le tHiveInput s'exécutant dans le framework de Jobs Spark Batch.
Le composant tHiveInput Spark Batch appartient à la famille Bases de données.
Le composant de ce framework est disponible dans tous les produits Talend avec Big Data et dans Talend Data Fabric.
Basic settings
Property Type |
Sélectionnez la manière de configurer les informations de connexion.
|
Hive Storage Configuration |
Sélectionnez le composant tHiveConfiguration duquel vous souhaitez que Spark utilise les détails de configuration pour se connecter à Hive. |
HDFS Storage configuration |
Sélectionnez le composant tHDFSConfiguration duquel vous souhaitez que Spark utilise les détails de la configuration pour se connecter à un système HDFS donné et transférer les fichiers .jar dépendants à ce système HDFS. Ce champ est utile uniquement lorsque vous utilisez une distribution on-premises. |
Schema et Edit Schema |
Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs. Utilisez toujours des minuscules lors du nommage d'un champ, car le traitement en tâche de fond peut forcer les noms de champs à être en minuscules. Créez le schéma en cliquant sur le bouton Edit Schema. Si le schéma est en mode Repository, trois options sont disponibles :
|
|
Built-in : le schéma est créé et conservé localement pour ce composant seulement. |
|
Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets. |
Input source |
Sélectionnez le type des données d'entrée que vous souhaitez que le tHiveInput lise :
Pour plus d'informations concernant le langage de requêtes Hive, consultez https://cwiki.apache.org/confluence/display/Hive/LanguageManual (uniquement en anglais) (en anglais). Note InformationsRemarque : Les données compressées en Gzip ou Bzip2 peuvent être traitées via les instructions de requête. Pour plus d'informations, consultez la page https://cwiki.apache.org/confluence/display/Hive/CompressedStorage (uniquement en anglais) (en anglais).
Hadoop fournit différents formats de compression permettant de réduire l'espace nécessaire au stockage des fichiers et d'accélérer le transfert de données. Lorsque vous lisez un fichier compressé, le Studio doit le décompresser avant de pouvoir en alimenter le flux d'entrée. |
Advanced settings
Register Hive UDF jars |
Ajoutez les .jar de fonctions personnalisées Hive que vous souhaitez que le tHiveInput utilise. Notez que vous devez définir un alias de fonction pour chaque fonction personnalisée à utiliser dans la table Temporary UDF functions. Une fois cette ligne ajoutée à la table, cliquez dessus pour afficher le bouton [...], puis cliquez sur ce bouton pour afficher l'assistant d'import de .jar. Via cet assistant, importez les fichiers .jar des fonctions personnalisées que vous souhaitez utiliser. Une fonction enregistrée est souvent utilisée dans une requête Hive que vous modifiez dans le champ Hive Query de la vue Basic settings. Notez que ce champ Hive Query est affiché uniquement lorsque vous sélectionnez Hive query dans la liste Input source. |
Temporary UDF functions |
Renseignez cette table pour donner à chaque classe de fonction personnalisée importée un nom fonctionnel temporaire à utiliser dans la requête Hive dans le tHiveInput courant. |
Utilisation
Règle d'utilisation |
Ce composant est utilisé en tant que composant de début et nécessite un lien de sortie. Ce composant doit utiliser un tHiveConfiguration présent au sein du même Job pour se connecter à Hive. Ce composant, ainsi que la Palette Spark Batch à laquelle il appartient, ne s'affiche que lorsque vous créez un Job Spark Batch. Notez que, dans cette documentation, sauf mention contraire, un scénario présente uniquement des Jobs Standard, c'est-à-dire des Jobs Talend traditionnels d'intégration de données. |
Connexion à Spark |
Dans l'onglet Spark Configuration de la vue Run, définissez la connexion à un cluster Spark donné pour le Job complet. De plus, puisque le Job attend ses fichiers .jar dépendants pour l'exécution, vous devez spécifier le répertoire du système de fichiers dans lequel ces fichiers .jar sont transférés afin que Spark puisse accéder à ces fichiers :
Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie. |