Propriétés du tBigQueryOutput pour Apache Spark Batch
Ces propriétés sont utilisées pour configurer le tBigQueryOutput s'exécutant dans le framework de Jobs Spark Batch.
Le composant tBigQueryOutput Spark Batch appartient à la famille Bases de données.
Le composant de ce framework est disponible dans tous les produits Talend avec Big Data nécessitant une souscription et dans Talend Data Fabric.
Basic settings
Dataset |
Saisissez le nom du jeu de données auquel la table à créer ou mettre à jour appartient. Dans Google Cloud Platform, lorsque vous utilisez Google BigQuery avec Dataproc, sélectionnez la même région pour que votre jeu de données BigQuery et votre cluster Dataproc puissent être exécutés. |
Table |
Saisissez le nom de la table à créer ou à mettre à jour. |
Schema et Edit Schema |
Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs. Créez le schéma en cliquant sur le bouton Edit Schema. Si le schéma est en mode Repository, trois options sont disponibles :
|
|
Built-in : le schéma est créé et conservé localement pour ce composant seulement. |
|
Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets. |
Table operations |
Sélectionnez l'opération à effectuer sur la table définie :
|
Data operation |
Sélectionnez l'opération à effectuer sur les données entrantes :
|
Utilisation
Règle d'utilisation |
Ce composant est un composant d'entrée. Il envoie les données extraites de BigQuery au composant le suivant. Placez un composant tBigQueryConfiguration dans le même Job pour utiliser les informations de connexion à BigQuery fournies par le tBigQueryConfiguration. |
Spark Connection |
Dans l'onglet Spark Configuration de la vue Run, définissez la connexion à un cluster Spark donné pour le Job complet. De plus, puisque le Job attend ses fichiers .jar dépendants pour l'exécution, vous devez spécifier le répertoire du système de fichiers dans lequel ces fichiers .jar sont transférés afin que Spark puisse accéder à ces fichiers :
Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie. |