Propriétés du tRedshiftBulkExec Standard
Ces propriétés sont utilisées pour configurer le tRedshiftBulkExec s'exécutant dans le framework de Jobs Standard.
Le composant tRedshiftBulkExec Standard appartient aux familles Cloud et Bases de données.
Le composant de ce framework est disponible dans tous les produits Talend.
Basic settings
Base de données |
Sélectionnez le type de base de données dans la liste et cliquez sur Apply (Appliquer). |
Property Type |
Peut être Built-In ou Repository.
|
Use an existing connection |
Cochez cette case et sélectionnez le composant de connexion adéquat dans la liste Component list pour réutiliser les paramètres d'une connexion que vous avez déjà définie. |
Driver version |
Sélectionnez la version du pilote Redshift à utiliser : Driver v1 ou Driver v2. Note InformationsRemarque : Cette option est disponible uniquement si vous avez installé la mise à jour mensuelle 8.0.1-R2022-04 du Studio Talend ou une plus récente fournie par Talend. Pour plus d'informations, contactez votre administrateur ou administratrice.
|
Host |
Saisissez l'adresse IP ou le nom de l'hôte du serveur de la base de données. |
Port |
Saisissez le numéro du port d'écoute du serveur de la base de données. |
Database |
Saisissez le nom de la base de données. |
Schema |
Saisissez le nom du schéma. |
Username et Password |
Saisissez les données d'authentification de l'utilisateur ou de l'utilisatrice de la base de données. Pour saisir le mot de passe, cliquez sur le bouton [...] à côté du champ Password, puis, dans la boîte de dialogue qui s'ouvre, saisissez le mot de passe entre guillemets doubles et cliquez sur OK afin de sauvegarder les paramètres. |
Use String JDBC parameters |
Configurez les propriétés JDBC dans une chaîne de caractères. Si vous sélectionnez cette option, saisissez votre chaîne de caractères de paramètre JDBC dans le champ Additional JDBC Parameters. Sinon, saisissez les propriétés JDBC et leur valeur dans la table Additional JDBC Parameters. Cette option n'est pas disponible si l'option Driver v1 est sélectionnée dans la liste déroulante Driver version. Note InformationsRemarque : Cette option est disponible uniquement si vous avez installé la mise à jour mensuelle 8.0.1-R2022-04 du Studio Talend ou une plus récente fournie par Talend. Pour plus d'informations, contactez votre administrateur ou administratrice.
|
Additional JDBC Parameters |
Définissez des propriétés JDBC supplémentaires pour la connexion que vous créez. Les propriétés sont séparées par une esperluette et chaque propriété est une paire clé-valeur. Par exemple, ssl=true & sslfactory=com.amazon.redshift.ssl.NonValidatingFactory, qui signifie que la connexion sera créée en utilisant le SSL. Cette table est disponible lorsque l'option Driver v2 est sélectionnée dans la liste déroulante Driver version et que l'option Use String JDBC parameters n'est pas sélectionnée. |
Additional JDBC Parameters (table) |
Spécifiez les propriétés JDBC dans les lignes de la table. Pour spécifier une propriété JDBC, ajoutez une ligne à la table en cliquant sur le bouton [+], sous la table, saisissez le nom de la propriété dans la colonne Key et saisissez la valeur de la propriété dans la colonne Value. Cette table est disponible lorsque l'option Driver v2 est sélectionnée dans la liste déroulante Driver version et que l'option Use String JDBC parameters n'est pas sélectionnée. Note InformationsRemarque : Cette option est disponible uniquement si vous avez installé la mise à jour mensuelle 8.0.1-R2022-04 du Studio Talend ou une plus récente fournie par Talend. Pour plus d'informations, contactez votre administrateur ou administratrice.
|
Table name |
Spécifiez le nom de la table à écrire. Notez que seule une table peut être écrite à la fois. |
Action on table |
Sur la table définie, vous pouvez effectuer l'une des opérations suivantes :
|
Schema et Edit schema |
Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs.
Créez le schéma en cliquant sur le bouton Edit Schema. Si le schéma est en mode Repository, trois options sont disponibles :
|
Data source type |
Sélectionnez l'emplacement des données source à charger.
Pour plus d'informations, consultez Data Sources. |
Use an existing S3 connection |
Cochez cette case et sélectionnez le composant de connexion adéquat dans la liste Component list pour réutiliser les paramètres d'une connexion que vous avez déjà définie. Cette option est disponible uniquement lorsque l'option S3 est sélectionnée dans la liste déroulante Data source type. Note InformationsRemarque : Ce composant ne fonctionne qu'avec des identifiants statiques. Il n'hérite donc pas des identifiants du rôle AWS. Le composant génère une erreur lors de l'exécution du Job si une option autre que Static Credentials est sélectionnée dans la liste déroulante Credential Provider du composant tS3Connection créant la connexion.
|
Access Key/S3 Access Key |
Spécifiez l'ID de la clé d'accès identifiant de manière unique un compte AWS. Pour savoir comment obtenir votre clé d'accès et votre clé secrète d'accès, consultez Getting Your AWS Access Keys (en anglais). Note InformationsRemarque :
|
Secret Key/S3 Secret Key |
Spécifiez la clé secrète d'accès, constituant les informations de sécurité, avec la clé d'accès. Pour saisir la clé secrète, cliquez sur le bouton [...] à côté du champ Secret key, puis, dans la boîte de dialogue qui s'ouvre, saisissez le mot de passe entre guillemets doubles puis cliquez sur OK afin de sauvegarder les paramètres. Note InformationsRemarque :
|
Assume Role |
Cochez cette case et spécifiez les valeurs des paramètres utilisés pour créer une session du rôle.
Cette option n'est pas disponible lorsque la case Use an existing S3 connection est cochée. Pour plus d'informations concernant les chaînes de rôles IAM ARN, consultez Authorizing Redshift service (en anglais). |
Bucket/S3 bucket |
Spécifiez le nom du bucket Amazon S3, contenant les données à charger. Ce champ est disponible uniquement lorsque les options S3 ou Remote host sont sélectionnées dans la liste déroulante Data source type. Note InformationsRemarque : Ce champ apparaît comme Bucket si vous sélectionnez S3 dans la liste déroulante Data source type ; il apparaît comme S3 bucket si vous sélectionnez Remote host dans la liste déroulante.
Le bucket et la base de données Redshift à utiliser doivent se situer dans la même région sur Amazon. Cela permet d'éviter les erreurs S3ServiceException d'Amazon. Pour plus d'informations concernant ces erreurs, consultez S3ServiceException Errors (en anglais). |
Key |
Spécifiez le chemin d'accès au fichier contenant les données à charger. Ce champ est disponible uniquement lorsque l'option S3 est sélectionnée dans la liste déroulante Data source type. |
Cluster ID |
Spécifiez l'ID du cluster stockant les données à charger. Ce champ est disponible uniquement lorsque l'option EMR est sélectionnée dans la liste déroulante Data source type. |
HDFS Path |
Spécifiez le chemin d'accès au fichier HDFS référençant le fichier de données. Ce champ est disponible uniquement lorsque l'option EMR est sélectionnée dans la liste déroulante Data source type. |
Table |
Spécifiez le nom de la table DynamoDB contenant les données à charger. Ce champ est disponible uniquement lorsque l'option DynamoDB est sélectionnée dans la liste déroulante Data source type. |
Read ratio |
Spécifiez le pourcentage du débit fourni pour la table DynamoDB à utiliser pour le chargement des données. Ce champ est disponible uniquement lorsque l'option DynamoDB est sélectionnée dans la liste déroulante Data source type. |
SSH manifest file |
Spécifiez la clé d'objet pour le fichier manifest SSH fournissant les informations utilisées pour ouvrir les connexions SSH et exécuter des commandes distantes. Ce champ est disponible uniquement lorsque l'option Remote host est sélectionnée dans la liste déroulante Data source type. |
Advanced settings
File type |
Sélectionnez dans la liste le type de fichier contenant les données à charger :
Cette liste est disponible uniquement lorsque les options S3, EMR ou Remote host sont sélectionnées dans la liste déroulante Data source type. |
Fiels terminated by |
Saisissez le caractère utilisé pour séparer les champs. Ce champ est disponible uniquement lorsque l'option Delimited file or CSV est sélectionnée dans la liste File type. |
Enclosed by |
Sélectionnez le caractère par lequel entourer les champs. Cette liste est disponible uniquement lorsque l'option Delimited file or CSV est sélectionnée dans la liste File type. |
JSON Mapping |
Spécifiez comment mapper les éléments de données dans le fichier source vers les colonnes dans la table cible d'Amazon Redshift. Les valeurs valides sont :
Ce champ est disponible uniquement lorsque les options JSON ou AVRO sont sélectionnées dans la liste File type. |
Fixed width mapping |
Saisissez une chaîne de caractères spécifiant un libellé et une largeur de colonne personnalisés entre guillemets doubles. Le format de la chaîne de caractères est le suivant : ColumnLabel1:ColumnWidth1,ColumnLabel2:ColumnWidth2,.... Notez que le libellé de la colonne dans la chaîne de caractères n'a aucun lien avec le nom de la colonne de la table et peut être une chaîne de caractères ou un entier. L'ordre des paires libellé/largeur doit correspondre à l'ordre exact des colonnes de la table. Ce champ est disponible uniquement lorsque l'option Fixed width est sélectionnée dans la liste File type. |
Compressed by |
Cochez cette case et, dans la liste affiché, sélectionnez le type de compression du fichier source. Cette case est disponible uniquement lorsque les options S3, EMR ou Remote host sont sélectionnées dans la liste déroulante Data source type. |
Decrypt |
Cochez cette case si le fichier est crypté à l'aide du cryptage Amazon S3 côté client. Dans le champ Encryption Key qui s'affiche, spécifiez la clé de chiffrement utilisée pour chiffrer le fichier. Notez que seule une enveloppe de clé AES 128 bits ou AES 256 bits encodée en base64 est supportée. Pour plus d'informations, consultez Loading Encrypted Data Files from Amazon S3 (en anglais). Cette case est disponible lorsque l'option S3 est sélectionnée dans la liste déroulante Data source type et que l'option Use an existing S3 connection n'est pas sélectionnée dans la vue Basic settings. |
Encoding |
Sélectionnez dans la liste le type d'encodage des données à charger. Cette liste est disponible uniquement lorsque les options S3, EMR ou Remote host sont sélectionnées dans la liste déroulante Data source type. |
Date format |
Sélectionnez l'un des éléments suivants afin de spécifier le format de date dans les données source :
|
Time format |
Sélectionnez l'un des éléments suivants dans la liste, afin de spécifier le format d'heure dans les données source :
|
Settings |
Cliquez sur le bouton [+] en dessous de la table pour spécifier plus de paramètres pour le chargement des données.
Pour plus d'informations sur les paramètres, consultez http://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html (en anglais). |
JDBC URL |
Sélectionnez un moyen d'accéder à une base de données Amazon Redshift dans la liste déroulante JDBC URL.
|
tStatCatcher Statistics |
Cochez cette case pour collecter les métadonnées de traitement du Job, aussi bien au niveau du Job qu'au niveau de chaque composant. |
Variables globales
Global Variables |
ERROR_MESSAGE : message d'erreur généré par le composant lorsqu'une erreur survient. Cette variable est une variable After et retourne une chaîne de caractères. Cette variable fonctionne uniquement si la case Die on error est décochée, lorsque le composant contient cette case. Une variable Flow fonctionne durant l'exécution d'un composant. Une variable After fonctionne après l'exécution d'un composant. Pour renseigner un champ ou une expression à l'aide d'une variable, appuyez sur les touches Ctrl+Espace pour accéder à la liste des variables. À partir de cette liste, vous pouvez choisir la variable que vous souhaitez utiliser. Pour plus d'informations concernant les variables, consultez Utiliser les contextes et les variables. |
Ce composant ne supporte pas les liens Row > Reject.
Utilisation
Règle d'utilisation |
Le composant tRedshiftBulkExec supporte le chargement des données vers Amazon Redshift à partir d'un fichier délimité/CSV, JSON ou à largeur fixe sur Amazon S3, mais le composant tRedshiftOutputBulk supporte uniquement le chargement des données à partir d'un fichier délimité/CSV vers Amazon S3. Lorsque vous devez charger des données à partir d'un fichier JSON ou d'un fichier à largeur fixe, vous pouvez utiliser le composant tFileOutputJSON ou tFileOutputPositional avec le composant tS3Put, au lieu d'utiliser le composant tRedshiftOutputBulk pour générer et charger le fichier vers Amazon S3. |
Paramètres dynamiques |
Cliquez sur le bouton [+] pour ajouter une ligne à la table. Dans le champ Code, saisissez une variable de contexte afin de sélectionner dynamiquement votre connexion à la base de données parmi celles prévues dans votre Job. Cette fonctionnalité est utile si vous devez accéder à plusieurs tables de bases de données ayant la même structure mais se trouvant dans différentes bases de données, en particulier lorsque vous travaillez dans un environnement dans lequel vous ne pouvez pas changer les paramètres de votre Job, par exemple lorsque votre Job doit être déployé et exécuté indépendamment d'un Studio Talend. La table Dynamic settings est disponible uniquement lorsque la case Use an existing connection est cochée dans la vue Basic settings. Lorsqu'un paramètre dynamique est configuré, la liste Component List de la vue Basic settings devient inutilisable. Pour des exemples d'utilisation de paramètres dynamiques, consultez Lire des données dans des bases de données MySQL à l'aide de connexions dynamiques basées sur les variables de contexte et Lire des données à partir de différentes bases de données MySQL à l'aide de paramètres de connexion chargés dynamiquement. Pour plus d'informations concernant les Paramètres dynamiques et les variables de contexte, consultez Schéma dynamique et Créer un groupe de contextes et définir les variables de contexte. |