Propriétés du tBigQueryOutput Standard
Ces propriétés sont utilisées pour configurer le tBigQueryOutput s'exécutant dans le framework de Jobs Standard.
Le composant tBigQueryOutput Standard appartient à la famille Big Data.
Le composant de ce framework est disponible dans tous les produits Talend.
Basic settings
Schema et Edit schema |
Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs.
Créez le schéma en cliquant sur le bouton Edit Schema.
Note InformationsRemarque : Si vous effectuez des modifications, le schéma passe automatiquement en type built-in.
Ce composant offre la fonction de schéma dynamique. Cela vous permet de récupérer des colonnes inconnues de fichiers sources ou de copier des lots de colonnes d'une source sans avoir à mapper chaque colonne individuellement. Pour plus d'informations concernant la définition des schémas dynamiques, consultez le Guide d'utilisation du Studio Talend. Cette fonctionnalité de schéma dynamique est conçue pour permettre de récupérer des colonnes inconnues d'une table. Il est recommandé de l'utiliser uniquement à cet effet et non pour créer des tables. |
|
|
Property type |
Built-in : le schéma est créé et conservé localement pour ce composant seulement. |
|
Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets. |
Local filename |
Parcourez votre système ou saisissez le chemin d'accès au fichier dans lequel vous souhaitez écrire les données reçues. |
Append |
Cochez cette case pour ajouter des lignes aux données existantes dans le fichier spécifié dans le champ Local filename. |
Mode d'authentification | Sélectionnez le mode à utiliser pour vous authentifier à votre projet.
|
Service account credentials file | Saisissez le chemin d'accès au fichier contenant les identifiants créé pour le compte de service à utiliser. Ce fichier doit être stocké sur la machine sur laquelle votre Job Talend est lancé et exécuté. Pour plus d'informations concernant la création d'un compte de service Google et comment obtenir le fichier Credentials, consultez Premiers pas avec l'authentification (uniquement en anglais) dans la documentation Google. |
Client ID et Client Secret |
Collez l'ID du client et son mot de passe ("secret") créés et visibles dans l'onglet API Access du projet hébergeant les services Google BigQuery et Cloud Storage à utiliser. Pour saisir le Secret du client, cliquez sur le bouton [...] à côté du champ Client Secret, puis, dans la boîte de dialogue qui s'ouvre, saisissez le Secret du client entre guillemets doubles puis cliquez sur OK afin de sauvegarder les paramètres. |
OAuth Access Token | Saisissez un jeton d'accès. La durée de vie d'un jeton est d'une heure. Le composant n'effectue pas d'opération d'actualisation du jeton mais récupère le nouveau jeton pour une opération après la limite d'une heure . |
Project ID |
Collez l'ID du projet hébergeant le service Google BigQuery à utiliser. L'ID de votre projet se trouve dans l'URL de la console de l'API Google ou en passant votre curseur sur le nom du projet dans BigQuery Browser Tool. |
Authorization code |
Collez le code d'autorisation fourni par Google pour l'accès en cours de construction. Pour obtenir le code d'autorisation, vous devez exécuter le Job utilisant ce composant. Lorsque l'exécution du Job est en pause pour afficher une URL, vous devez vous rendre à l'URL donnée afin de copier le code d'autorisation. |
Jeu de données |
Saisissez le nom du jeu de données dans lequel vous devez transférer des données. |
Table |
Saisissez le nom de la table dans laquelle vous devez transférer les données. Si la table n'existe pas, cochez la case Create the table if it doesn't exist. |
Action on data |
Sélectionnez l'action à effectuer dans la liste déroulante lors du transfert des données dans la table cible. Les actions disponibles sont :
|
Credential type | Sélectionnez le type à utiliser pour vous authentifier à votre projet.
Par défaut, Service account est sélectionné. Le champ Credential type est disponible uniquement si vous ne cochez pas la case Bulk file already exists in Google storage. |
Service account key |
Cliquez sur le bouton [...] près du champ Service account key afin de parcourir votre système jusqu'au fichier JSON contenant votre clé de compte de service. Ce champ est disponible lorsque la case Use an existing connection n'est pas cochée et que l'option Service account est sélectionnée dans la liste déroulante Credential type. |
Access Key et Secret Key |
Collez les informations d'authentification obtenues de Google pour envoyer des requêtes à Google Cloud Storage. Pour saisir la clé secrète, cliquez sur le bouton [...] à côté du champ Secret key, puis, dans la boîte de dialogue qui s'ouvre, saisissez le mot de passe entre guillemets doubles puis cliquez sur OK afin de sauvegarder les paramètres. Ces clés peuvent être consultées dans la vue Interoperable Access, sous l'onglet Google Cloud Storage du projet. |
OAuth Access Token |
Saisissez un jeton d'accès. La durée de vie d'un jeton d'accès est d'une heure. Le composant n'effectue pas d'opération d'actualisation du jeton mais récupère un nouveau jeton pour une opération après la limite d'une heure. Ce champ est disponible lorsque la case Use an existing connection n'est pas cochée et que l'option OAuth Access Token est sélectionnée dans la liste déroulante Credential type. |
Bucket |
Saisissez le nom du bucket, du conteneur Google Cloud Storage, contenant les données à transférer à Google BigQuery. |
Fichier |
Saisissez le chemin du répertoire des données stockées dans Google Cloud Storage et à transférer à Google BigQuery. Ces données doivent être stockées directement sous la racine du bucket. Par exemple, saisissez gs://my_bucket/my_file.csv. Si les données ne sont pas dans Google Cloud Storage, ce répertoire est utilisé comme destination intermédiaire avant transfert des données à Google BigQuery. Notez que le nom de ce fichier doit être identique au nom du fichier spécifié dans le champ Local filename. |
Header |
Saisissez le nombre de lignes d'en-tête à ignorer dans les données transférées. Par exemple, saisissez 0 pour ne pas ignorer de lignes dans les données sans en-tête et 1 pour les données dont l'en-tête se trouve dans la première ligne. |
Die on error |
Cette case est décochée par défaut, ce qui vous permet de terminer le traitement avec les lignes sans erreur, et d'ignorer les lignes en erreur. |
Advanced settings
token properties File Name |
Saisissez le chemin d'accès ou parcourez votre système jusqu'au fichier de jeton à utiliser. Lors de la première exécution du Job avec le code Authorization code de Google BigQuery, vous devez saisir dans ce champ le répertoire et le nom du fichier contenant le nouveau jeton (refresh token) à créer et à utiliser. Si ce fichier de jeton a été créé et que vous devez le réutiliser, vous devez spécifier son répertoire ainsi que le nom du fichier dans ce champ. Lorsque seul le nom du fichier de jeton est saisi, le Studio Talend considère le répertoire de ce fichier de jeton comme la racine du dossier du Studio. Pour plus d'informations concernant le refresh token, consultez le manuel de Google BigQuery. |
Field Separator |
Saisissez un caractère, une chaîne de caractères ou une expression régulière pour séparer les champs des données transférées. |
Drop table if exists and create : |
Sélectionnez l'option Drop table if exists afin de supprimer la table spécifiée dans le champ Table, si elle existe déjà. |
Create directory if not exists |
Cochez cette case pour créer le répertoire que vous avez défini dans le champ File pour Google Cloud Storage, s'il n'existe pas. |
Custom the flush buffer size |
Saisissez le nombre de lignes à traiter avant de libérer la mémoire. |
Check disk space |
Cochez cette case pour retourner une exception durant l'exécution si le disque est plein. |
Encoding |
Sélectionnez l'encodage à partir de la liste ou sélectionnez Custom et définissez-le manuellement. Ce champ est obligatoire pour la manipulation des données de base de données. Les encodages supportés dépendent de la JVM que vous utilisez. Pour plus d'informations, consultez https://docs.oracle.com (uniquement en anglais). |
tStatCatcher Statistics |
Cochez cette case afin de collecter les données de log au niveau des composants. |
Variables globales
ERROR_MESSAGE |
Message d'erreur généré par le composant lorsqu'une erreur survient. Cette variable est une variable After et retourne une chaîne de caractères. Cette variable fonctionne uniquement lorsque la case Die on error est cochée. |
JOBID |
L'ID du Job. Cette variable est une variable After et retourne une chaîne de caractères. |
STATISTICS |
Les statistiques du Job. Cette variable est une variable After et retourne une chaîne de caractères. |
Utilisation
Règle d'utilisation |
Ce composant est un composant de sortie. Il reçoit les données du composant précédent, comme le tFileInputDelimited, le tMap ou le tMysqlInput. Ce composant supporte et détecte automatiquement les localités régionales et multi-régionales. Lorsque les localités régionales sont utilisées, les buckets et jeux de données à utiliser doivent se trouver au même emplacement. |