Accéder au contenu principal Passer au contenu complémentaire

Propriétés du tRedshiftBulkExec Standard

Ces propriétés sont utilisées pour configurer le tRedshiftBulkExec s'exécutant dans le framework de Jobs Standard.

Le composant tRedshiftBulkExec Standard appartient aux familles Cloud et Bases de données.

Le composant de ce framework est disponible dans tous les produits Talend.

Note InformationsRemarque : Ce composant est une version spécifique d'un connecteur à une base de données dynamique. Les propriétés associées aux paramètres de la base de données dépendent du type de base de données sélectionné. Pour plus d'informations concernant les connecteurs dynamiques aux bases de données, consultez Composants de bases de données dynamiques.

Basic settings

Base de données

Sélectionnez un type de base de données dans la liste et cliquez sur Apply.

Property Type

Peut être Built-In ou Repository.

  • Built-In : aucune propriété n'est stockée de manière centrale.

  • Repository : Sélectionnez le fichier dans lequel sont stockées les propriétés du composant.

Use an existing connection

Cochez cette case et sélectionnez le composant de connexion adéquat dans la liste Component list pour réutiliser les paramètres d'une connexion que vous avez déjà définie.

Host

Saisissez l'adresse IP ou le nom de l'hôte du serveur de la base de données.

Port

Saisissez le numéro du port d'écoute du serveur de la base de données.

Database

Saisissez le nom de la base de données.

Schema

Saisissez le nom du schéma.

Username et Password

Saisissez les données d'authentification de l'utilisateur ou de l'utilisatrice de la base de données.

Pour saisir le mot de passe, cliquez sur le bouton [...] à côté du champ Password, puis, dans la boîte de dialogue qui s'ouvre, saisissez le mot de passe entre guillemets doubles et cliquez sur OK afin de sauvegarder les paramètres.

Additional JDBC Parameters

Définissez des propriétés JDBC supplémentaires pour la connexion que vous créez. Les propriétés sont séparées par une esperluette et chaque propriété est une paire clé-valeur. Par exemple, ssl=true & sslfactory=com.amazon.redshift.ssl.NonValidatingFactory, qui signifie que la connexion sera créée en utilisant le SSL.

Table Name

Spécifiez le nom de la table à écrire. Notez que seule une table peut être écrite à la fois.

Action on table

Sur la table définie, vous pouvez effectuer l'une des opérations suivantes :

  • None : aucune opération n'est effectuée.

  • Drop and create table : la table est supprimée et de nouveau créée.

  • Create table : la table n'existe pas et est créée.

  • Create table if not exists : la table est créée si elle n'existe pas.

  • Drop table if exists and create : la table est supprimée si elle existe déjà et de nouveau créée.

  • Clear table : le contenu de la table est supprimé. Vous pouvez annuler cette opération.

Schema et Edit schema

Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs.

  • Built-in : le schéma est créé et conservé localement pour ce composant seulement.

  • Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets.

 

Créez le schéma en cliquant sur le bouton Edit Schema. Si le schéma est en mode Repository, trois options sont disponibles :

  • View schema : sélectionnez cette option afin de voir uniquement le schéma.

  • Change to built-in property : sélectionnez cette option pour passer le schéma en mode Built-In et effectuer des modifications locales.

  • Update repository connection : sélectionnez cette option afin de modifier le schéma stocké dans le référentiel et décider de propager ou non les modifications à tous les Jobs. Si vous souhaitez propager les modifications uniquement au Job courant, cliquez sur No et sélectionnez à nouveau la métadonnée du schéma dans la fenêtre Repository Content.

Data source type

Sélectionnez l'emplacement des données source à charger.

  • S3 : charge les données d'un fichier dans un bucket Amazon S3.

  • EMR : charge les données d'un cluster Amazon EMR.

  • DynamoDB : charge les données d'une table DynamoDB existante.

  • Remote host : charge les données d'un ou plusieurs hôte(s) distants, comme les instances Amazon Elastic Compute Cloud (Amazon EC2) ou d'autres ordinateurs.

Pour plus d'informations, consultez Data Sources (uniquement en anglais).

Use an existing S3 connection

Cochez cette case et sélectionnez le composant de connexion adéquat dans la liste Component list pour réutiliser les paramètres d'une connexion que vous avez déjà définie.

Cette option est disponible uniquement lorsque l'option S3 est sélectionnée dans la liste déroulante Data source type.

Access Key/S3 Access Key

Spécifiez l'ID de la clé d'accès identifiant de manière unique un compte AWS. Pour savoir comment obtenir votre clé d'accès et votre clé secrète d'accès, consultez Getting Your AWS Access Keys (uniquement en anglais) (en anglais).

Note InformationsRemarque :
  • Cette option est disponible lorsque la case Use an existing S3 connection est cochée.
  • Cette option s'affiche comme S3 Access Key si vous sélectionnez Remote host dans la liste déroulante Data source type.

Secret Key/S3 Secret Key

Spécifiez la clé secrète d'accès, constituant les informations de sécurité, avec la clé d'accès.

Pour saisir la clé secrète, cliquez sur le bouton [...] à côté du champ Secret key, puis, dans la boîte de dialogue qui s'ouvre, saisissez le mot de passe entre guillemets doubles puis cliquez sur OK afin de sauvegarder les paramètres.

Note InformationsRemarque :
  • Cette option n'est disponible lorsque la case Use an existing S3 connection est cochée.
  • Cette option s'affiche comme S3 Secret Key si vous sélectionnez Remote host dans la liste déroulante Data source type.

Assume Role

Cochez cette case et spécifiez les valeurs des paramètres utilisés pour créer une session du rôle.

  • IAM Role ARNs chains : une série de rôles en chaîne, pouvant appartenir à d'autres comptes, que votre cluster peut utiliser pour accéder aux ressources.

    Vous pouvez mettre en chaîne un maximum de dix rôles.

  • Role ARN : nom Amazon Resource Name (ARN) du rôle.

Cette option n'est pas disponible lorsque la case Use an existing S3 connection est cochée.

Pour plus d'informations concernant les chaînes de rôles IAM ARN, consultez Authorizing Redshift service (uniquement en anglais) (en anglais).

Bucket/S3 bucket

Spécifiez le nom du bucket Amazon S3, contenant les données à charger.

Ce champ est disponible uniquement lorsque les options S3 ou Remote host sont sélectionnées dans la liste déroulante Data source type.

Note InformationsRemarque : Ce champ apparaît comme Bucket si vous sélectionnez S3 dans la liste déroulante Data source type ; il apparaît comme S3 bucket si vous sélectionnez Remote host dans la liste déroulante.

Le bucket et la base de données Redshift à utiliser doivent se situer dans la même région sur Amazon. Cela permet d'éviter les erreurs S3ServiceException d'Amazon. Pour plus d'informations concernant ces erreurs, consultez S3ServiceException Errors (uniquement en anglais) (en anglais).

Key

Spécifiez le chemin d'accès au fichier contenant les données à charger.

Ce champ est disponible uniquement lorsque l'option S3 est sélectionnée dans la liste déroulante Data source type.

Cluster ID

Spécifiez l'ID du cluster stockant les données à charger.

Ce champ est disponible uniquement lorsque l'option EMR est sélectionnée dans la liste déroulante Data source type.

HDFS Path

Spécifiez le chemin d'accès au fichier HDFS référençant le fichier de données.

Ce champ est disponible uniquement lorsque l'option EMR est sélectionnée dans la liste déroulante Data source type.

Table

Spécifiez le nom de la table DynamoDB contenant les données à charger.

Ce champ est disponible uniquement lorsque l'option DynamoDB est sélectionnée dans la liste déroulante Data source type.

Read ratio

Spécifiez le pourcentage du débit fourni pour la table DynamoDB à utiliser pour le chargement des données.

Ce champ est disponible uniquement lorsque l'option DynamoDB est sélectionnée dans la liste déroulante Data source type.

SSH manifest file

Spécifiez la clé d'objet pour le fichier manifest SSH fournissant les informations utilisées pour ouvrir les connexions SSH et exécuter des commandes distantes.

Ce champ est disponible uniquement lorsque l'option Remote host est sélectionnée dans la liste déroulante Data source type.

Advanced settings

File type

Sélectionnez dans la liste le type de fichier contenant les données à charger :

  • Delimited file or CSV : un fichier délimité/CSV.

  • JSON : un fichier JSON.

  • AVRO : un fichier AVRO.

  • Fixed width : un fichier à largeur fixe.

  • Apache Parquet : un fichier Apache Parquet. Cette option est disponible lorsque l'option S3 est sélectionnée dans la liste déroulante Data source type dans la vue Basic settings.

Cette liste est disponible uniquement lorsque les options S3, EMR ou Remote host sont sélectionnées dans la liste déroulante Data source type.

Note InformationsRemarque : L'option Apache Parquet est disponible uniquement si vous avez installé la mise à jour mensuelle R2021-02 du Studio ou une mise à jour plus récente fournie par Talend. Pour plus d'informations, contactez votre administrateur ou administratrice.

Fields terminated by

Saisissez le caractère utilisé pour séparer les champs.

Ce champ est disponible uniquement lorsque l'option Delimited file or CSV est sélectionnée dans la liste File type.

Enclosed by

Sélectionnez le caractère par lequel entourer les champs.

Cette liste est disponible uniquement lorsque l'option Delimited file or CSV est sélectionnée dans la liste File type.

JSON Mapping

Spécifiez comment mapper les éléments de données dans le fichier source vers les colonnes dans la table cible d'Amazon Redshift. Les valeurs valides sont :

  • auto : mappe les données en rapprochant les clés d'objets ou les noms dans le nom source, les paires de valeurs pour un fichier JSON ou les noms de champs dans le schéma Avro pour un fichier Avro, des noms de colonnes dans la table cible. L'argument est sensible à la casse et doit être entouré de guillemets doubles.

  • s3://jsonpaths_file : mappe les données en utilisant le fichier appelé JSONPaths. Le paramètre doit être une clé d'objet Amazon S3 entourée par des guillemets doubles et référençant explicitement un seul fichier, s3://mybucket/jsonpaths.txt par exemple. Pour plus d'informations, consultez Data Format Parameters (uniquement en anglais).

Ce champ est disponible uniquement lorsque les options JSON ou AVRO sont sélectionnées dans la liste File type.

Fixed width mapping

Saisissez une chaîne de caractères spécifiant un libellé et une largeur de colonne personnalisés entre guillemets doubles. Le format de la chaîne de caractères est le suivant :

ColumnLabel1:ColumnWidth1,ColumnLabel2:ColumnWidth2,....

Notez que le libellé de la colonne dans la chaîne de caractères n'a aucun lien avec le nom de la colonne de la table et peut être une chaîne de caractères ou un entier. L'ordre des paires libellé/largeur doit correspondre à l'ordre exact des colonnes de la table.

Ce champ est disponible uniquement lorsque l'option Fixed width est sélectionnée dans la liste File type.

Compressed by

Cochez cette case et, dans la liste affiché, sélectionnez le type de compression du fichier source.

Cette case est disponible uniquement lorsque les options S3, EMR ou Remote host sont sélectionnées dans la liste déroulante Data source type.

Decrypt

Cochez cette case si le fichier est crypté à l'aide du cryptage Amazon S3 côté client. Dans le champ Encryption Key qui s'affiche, spécifiez la clé de chiffrement utilisée pour chiffrer le fichier. Notez que seule une enveloppe de clé AES 128 bits ou AES 256 bits encodée en base64 est supportée. Pour plus d'informations, consultez Loading Encrypted Data Files from Amazon S3 (uniquement en anglais) (en anglais).

Cette case est disponible lorsque l'option S3 est sélectionnée dans la liste déroulante Data source type et que l'option Use an existing S3 connection n'est pas sélectionnée dans la vue Basic settings.

Encoding

Sélectionnez dans la liste le type d'encodage des données à charger.

Cette liste est disponible uniquement lorsque les options S3, EMR ou Remote host sont sélectionnées dans la liste déroulante Data source type.

Date format

Sélectionnez l'un des éléments suivants afin de spécifier le format de date dans les données source :

  • NONE : aucun format de date n'est spécifié.

  • PATTERN : sélectionnez cet élément et spécifiez le format de date dans le champ affiché. Le format de date par défaut est YYYY-MM-DD.

  • AUTO : sélectionnez cet élément si vous souhaitez qu'Amazon Redshift reconnaisse et convertisse automatiquement le format de date.

Time format

Sélectionnez l'un des éléments suivants dans la liste, afin de spécifier le format d'heure dans les données source :

  • NONE : aucun format d'heure n'est spécifié.

  • PATTERN : sélectionnez cet élément et spécifiez le format d'heure dans le champ affiché. Le format de l'heure par défaut est YYYY-MM-DD HH:MI:SS.

  • AUTO : sélectionnez cet élément si vous souhaitez qu'Amazon Redshift reconnaisse et convertisse automatiquement le format d'heure.

  • EPOCHSECS : sélectionnez cet élément si les données source sont représentées en tant qu'époque, le nombre de secondes depuis Jan 1, 1970 00:00:00 UTC.

  • EPOCHMILLISECS : sélectionnez cet élément si les données source sont représentées en tant qu'époque, le nombre de millisecondes depuis Jan 1, 1970 00:00:00 UTC.

Settings

Cliquez sur le bouton [+] en dessous de la table pour spécifier plus de paramètres pour le chargement des données.

  • Parameter : cliquez dans la cellule et sélectionnez un paramètre dans la liste déroulante.

  • Value : sélectionnez la valeur du paramètre correspondant. Notez que vous ne pouvez pas configurer la valeur d'un paramètre (tel qu'IGNOREBLANKLINES) qui ne nécessite pas de valeur.

Pour plus d'informations sur les paramètres, consultez http://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html (uniquement en anglais) (en anglais).

JDBC URL
Sélectionnez un moyen d'accéder à une base de données Amazon Redshift dans la liste déroulante JDBC URL.
  • Standard : utilisez le moyen standard pour accéder à la base de données Redshift.
  • SSO : utilisez l'authentification unique (SSO) d'IAM pour accéder à la base de données Redshift. Avant de sélectionner cette option, assurez-vous que le rôle IAM ajouté à votre cluster Redshift possède les droits d'accès appropriés à ce cluster. Pour plus d'informations, contactez l'administrateur de vos services AWS.

    Cette option est disponible uniquement lorsque la case Use an existing connection n'est pas cochée dans la vue Basic settings.

tStatCatcher Statistics

Cochez cette case pour collecter les métadonnées de traitement du Job, aussi bien au niveau du Job qu'au niveau de chaque composant.

Variables globales

Global Variables

ERROR_MESSAGE : message d'erreur généré par le composant lorsqu'une erreur survient. Cette variable est une variable After et retourne une chaîne de caractères. Cette variable fonctionne uniquement si la case Die on error est décochée, lorsque le composant contient cette case.

Une variable Flow fonctionne durant l'exécution d'un composant.

Pour renseigner un champ ou une expression à l'aide d'une variable, appuyez sur les touches Ctrl+Espace pour accéder à la liste des variables. À partir de cette liste, vous pouvez choisir la variable que vous souhaitez utiliser.

Pour plus d'informations concernant les variables, consultez le Guide d'utilisation du Studio Talend.

Note InformationsRemarque :

Ce composant ne supporte pas les liens Row > Reject.

Utilisation

Règle d'utilisation

Le composant tRedshiftBulkExec supporte le chargement des données vers Amazon Redshift à partir d'un fichier délimité/CSV, JSON ou à largeur fixe sur Amazon S3, mais le composant tRedshiftOutputBulk supporte uniquement le chargement des données à partir d'un fichier délimité/CSV vers Amazon S3. Lorsque vous devez charger des données à partir d'un fichier JSON ou d'un fichier à largeur fixe, vous pouvez utiliser le composant tFileOutputJSON ou tFileOutputPositional avec le composant tS3Put, au lieu d'utiliser le composant tRedshiftOutputBulk pour générer et charger le fichier vers Amazon S3.

Paramètres dynamiques

Cliquez sur le bouton [+] pour ajouter une ligne à la table. Dans le champ Code, saisissez une variable de contexte afin de sélectionner dynamiquement votre connexion à la base de données parmi celles prévues dans votre Job. Cette fonctionnalité est utile si vous devez accéder à plusieurs tables de bases de données ayant la même structure mais se trouvant dans différentes bases de données, en particulier lorsque vous travaillez dans un environnement dans lequel vous ne pouvez pas changer les paramètres de votre Job, par exemple lorsque votre Job doit être déployé et exécuté indépendamment d'un Studio Talend.

La table Dynamic settings est disponible uniquement lorsque la case Use an existing connection est cochée dans la vue Basic settings. Lorsqu'un paramètre dynamique est configuré, la liste Component List de la vue Basic settings devient inutilisable.

Pour des exemples d'utilisation de paramètres dynamiques, consultez Lire des données dans des bases de données MySQL à l'aide de connexions dynamiques basées sur les variables de contexte et Lire des données à partir de différentes bases de données MySQL à l'aide de paramètres de connexion chargés dynamiquement. Pour plus d'informations concernant les paramètres dynamiques (Dynamic settings) et les variables de contexte, consultez le Guide d'utilisation du Studio Talend.

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – faites-le-nous savoir.