Accéder au contenu principal Passer au contenu complémentaire

Propriétés du tBigQueryOutputBulk Standard

Ces propriétés sont utilisées pour configurer le tBigQueryOutputBulk s'exécutant dans le framework de Jobs Standard.

Le composant tBigQueryOutputBulk Standard appartient à la famille Big Data.

Le composant de ce framework est disponible dans tous les produits Talend.

Basic settings

Schema et Edit schema

Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs.

  • Built-in : le schéma est créé et conservé localement pour ce composant seulement.

  • Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets.

Créez le schéma en cliquant sur le bouton Edit Schema. Si vous effectuez des modifications, le schéma passe automatiquement en type built-in.

  • View schema : sélectionnez cette option afin de voir uniquement le schéma.

  • Change to built-in property : sélectionnez cette option pour passer le schéma en mode Built-In et effectuer des modifications locales.

  • Update repository connection : sélectionnez cette option afin de modifier le schéma stocké dans le référentiel et décider de propager ou non les modifications à tous les Jobs.

    Si vous souhaitez propager les modifications uniquement au Job courant, cliquez sur No et sélectionnez à nouveau la métadonnée du schéma dans la fenêtre Repository Content.

 
  • Le type Record de BigQuery n'est pas supporté.
  • Les colonnes pour les métadonnées de tables, comme la colonne Description ou Mode ne peuvent être récupérées.
  • Les données d'horodatage Timestamp de votre système BigQuery sont formatées en type String.
  • Les données numériques de BigQuery sont converties en BigDecimal.

Nom de fichier

Parcourez votre système ou saisissez le chemin d'accès au fichier .txt ou .csv à générer.

Append

Cochez cette case pour écrire de nouvelles données à la suite des données existantes. Sinon, les données seront écrasées.

Advanced settings

Use a custom region endpoint (Utiliser un endpoint de région personnalisé) Cochez cette case pour utiliser un endpoint (point de terminaison) privé plutôt que l'endpoint par défaut.
Lorsque cette case est cochée, saiaissez l'URL dans les propriétés suivantes :
  • Google Storage Private API URL en respectant le format "https://storage.googleapis.com".
  • Google BigQuery Private API URL en respectant le format "https://bigquery.googleapis.com".

Pour plus d'informations, consultez Accéder aux API Google via des points de terminaison dans la documentation Google.

Cette propriété est disponible uniquement lorsque vous vous authentifiez à l'aide d'un compte de service (Service account) et des identifiants par défaut de l'application (Application Default Credentials).

Field Separator

Saisissez un caractère, une chaîne de caractères ou une expression régulière pour séparer les champs des données transférées.

Use custom null marker

Sélectionnez cette option pour utiliser un caractère spécifique comme marqueur des nulls. Vous pouvez spécifier le marqueur des nulls entre guillemets doubles dans le champ à droite.

Cette option empêche les erreurs causées par les champs comprenant des valeurs nulles.

Create directory if not exists

Cochez cette case pour créer le répertoire que vous avez défini dans le champ File pour Google Cloud Storage, s'il n'existe pas.

Custom the flush buffer size

Saisissez le nombre de lignes à traiter avant de libérer la mémoire.

Check disk space

Cochez cette case afin de retourner une exception durant l'exécution si le disque est plein.

Encoding

Sélectionnez l'encodage à partir de la liste ou sélectionnez Custom et définissez-le manuellement. Ce champ est obligatoire pour la manipulation des données de base de données. Les encodages supportés dépendent de la JVM que vous utilisez. Pour plus d'informations, consultez https://docs.oracle.com.

tStatCatcher Statistics

Cochez cette case pour collecter les données de log au niveau des composants.

Global Variables

Variables globales

NB_LINE : nombre de lignes lues par un composant d'entrée ou passées à un composant de sortie. Cette variable est une variable After et retourne un entier.

ERROR_MESSAGE : message d'erreur généré par le composant lorsqu'une erreur survient. Cette variable est une variable After et retourne une chaîne de caractères. Cette variable fonctionne uniquement si la case Die on error est décochée, lorsque le composant contient cette case.

Une variable Flow fonctionne durant l'exécution d'un composant. Une variable After fonctionne après l'exécution d'un composant.

Pour renseigner un champ ou une expression à l'aide d'une variable, appuyez sur les touches Ctrl+Espace pour accéder à la liste des variables. À partir de cette liste, vous pouvez choisir la variable que vous souhaitez utiliser.

Pour plus d'informations concernant les variables, consultez Utiliser les contextes et les variables.

Utilisation

Règle d'utilisation

Ce composant est un composant de sortie. Il nécessite les donnée fournies par le composant précédent.

Ce composant supporte et détecte automatiquement les localités régionales et multi-régionales. Lorsque les localités régionales sont utilisées, les buckets et jeux de données à utiliser doivent se trouver au même emplacement.

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – faites-le-nous savoir.