Double-cliquez sur le tBigQueryOutput pour ouvrir sa vue Component.
Cliquez sur Sync columns pour récupérer le schéma du composant précédent.
Dans le champ Local filename, saisissez le chemin d'accès au répertoire dans lequel créer le fichier à transférer à BigQuery.
Dans votre navigateur Web, rendez-vous sur la page de la console Google APIs afin d'accéder au projet Google hébergeant les services BigQuery et Cloud Storage à utiliser.
Cliquez sur Google Cloud Storage > Interoperable Access pour ouvrir la vue correspondante.
Dans la zone Google storage configuration de la vue Component, collez, dans les champs correspondants, la clé Access, le mot de passe Access, disponibles dans la vue Interoperable Access.
Dans le champ Bucket, saisissez le chemin d'accès au bucket dans lequel stocker les données transférées. Dans cet exemple, le bucket se nomme talend/documentation
Il doit exister dans le répertoire de Cloud Storage.
Dans le champ File, saisissez le chemin d'accès au répertoire de Google Clould Storage dans lequel recevoir et créer le fichier à transférer dans BigQuery. Dans ce scénario, saisissez gs://talend/documentation/biquery_UScustomer.csv. Le nom du fichier doit être le même que celui défini dans le champ Local filename.
Dépannage : si vous rencontrez des problèmes comme Unable to read source URI concernant le fichier stocké dans Google Cloud Storage, vérifiez que le nom du fichier est bien le même dans les deux champs.
Saisissez 0 dans le champ Header afin de prendre toutes les lignes en compte dans les données transférées.
Cette page vous a-t-elle aidé ?
Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – faites-le-nous savoir.