Propriétés du tRedshiftUnload Standard
Ces propriétés sont utilisées pour configurer le tRedshiftUnload s'exécutant dans le framework de Jobs Standard.
Le composant tRedshiftUnload Standard appartient aux familles Cloud et Bases de données.
Le composant de ce framework est disponible dans tous les produits Talend.
Basic settings
Property Type |
Peut-être Built-In ou Repository.
|
Use an existing connection |
Cochez cette case et sélectionnez le composant de connexion adéquat dans la liste Component list pour réutiliser les paramètres d'une connexion que vous avez déjà définie. |
Host |
Saisissez l'adresse IP ou le nom de l'hôte du serveur de la base de données. |
Port |
Saisissez le numéro du port d'écoute du serveur de la base de données. |
Database |
Saisissez le nom de la base de données. |
Schema |
Saisissez le nom du schéma. |
Username et Password |
Saisissez les données d'authentification de l'utilisateur ou de l'utilisatrice de la base de données. Pour saisir le mot de passe, cliquez sur le bouton [...] à côté du champ Password, puis, dans la boîte de dialogue qui s'ouvre, saisissez le mot de passe entre guillemets doubles et cliquez sur OK afin de sauvegarder les paramètres. |
Additional JDBC Parameters |
Définissez des propriétés JDBC supplémentaires pour la connexion que vous créez. Les propriétés sont séparées par une esperluette et chaque propriété est une paire clé-valeur. Par exemple, ssl=true & sslfactory=com.amazon.redshift.ssl.NonValidatingFactory, qui signifie que la connexion sera créée en utilisant le SSL. |
Table Name |
Saisissez le nom de la table de laquelle lire les données. |
Schema et Edit schema |
Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs. Built-in : le schéma est créé et conservé localement pour ce composant seulement. Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets. Créez le schéma en cliquant sur le bouton Edit Schema. Si le schéma est en mode Repository, trois options sont disponibles :
|
Query Type et Query |
Saisissez votre requête en faisant particulièrement attention à l'ordre des champs afin qu'ils correspondent à la définition du schéma. Saisissez deux fois le caractère d'échappement pour chaque guillemet simple dans la requête. Par exemple,
|
Guess Query |
Cliquez sur le bouton pour générer une requête correspondant à votre schéma de table dans le champ Query. |
Use an existing S3 connection |
Cochez cette case et sélectionnez le composant de connexion adéquat dans la liste Component list pour réutiliser les paramètres d'une connexion que vous avez déjà définie. |
Access Key |
Spécifiez l'ID de la clé d'accès identifiant de manière unique un compte AWS. Pour savoir comment obtenir votre clé d'accès et votre clé secrète d'accès, consultez Getting Your AWS Access Keys (uniquement en anglais) (en anglais). Cette option n'est pas disponible lorsque la case Use an existing S3 connection est cochée. |
Secret Key |
Spécifiez la clé secrète d'accès, constituant les informations de sécurité, ainsi que la clé d'accès. Pour saisir la clé secrète, cliquez sur le bouton [...] à côté du champ Secret key, puis, dans la boîte de dialogue qui s'ouvre, saisissez le mot de passe entre guillemets doubles puis cliquez sur OK afin de sauvegarder les paramètres. Cette option n'est pas disponible lorsque la case Use an existing S3 connection est cochée. |
Assume Role |
Cochez cette case et spécifiez les valeurs des paramètres utilisés pour créer une session du rôle.
Cette option n'est pas disponible lorsque la case Use an existing S3 connection est cochée. Pour plus d'informations concernant les chaînes de rôles IAM ARN, consultez Authorizing Redshift service (uniquement en anglais) (en anglais). |
Bucket |
Saisissez le nom du bucket Amazon S3, le dossier de plus haut niveau, duquel retirer les données. |
Key prefix |
Saisissez le préfixe du nom pour les fichiers à retirer de Amazon S3. Par défaut, les fichiers non chargés sont écrits par tranche du cluster Redshift et les noms de fichier sont écrits au format <object_path>/<name_prefix><slice-number>_part_<file-number>. |
Paramètres avancés
File type |
Sélectionnez le type des fichiers retirés de Amazon S3 dans la liste :
Note InformationsRemarque : L'option Apache Parquet est disponible uniquement si vous avez installé la mise à jour mensuelle R2020-07 du Studio ou une mise à jour plus récente fournie par Talend. Pour plus d'informations, contactez votre administrateur ou administratrice.
|
Fields terminated by |
Saisissez le caractère utilisé pour séparer les champs. Ce champ apparaît uniquement lorsque l'option Delimited file or CSV est sélectionnée dans la liste File type. |
Enclosed by |
Sélectionnez le caractère avec lequel entourer les champs. Cette liste apparaît uniquement lorsque l'option Delimited file or CSV est sélectionnée dans la liste File type. |
Fixed width mapping |
Saisissez une chaîne de caractères spécifiant un libellé et une largeur de colonne personnalisés entre guillemets doubles. Le format de la chaîne de caractères est le suivant : ColumnLabel1:ColumnWidth1,ColumnLabel2:ColumnWidth2,.... Notez que le libellé de la colonne dans la chaîne de caractères n'a aucun lien avec le nom de la colonne de la table et peut être une chaîne de caractères ou un entier. L'ordre des paires libellé/largeur doit correspondre à l'ordre exact des colonnes de la table. Ce champ apparaît uniquement lorsque l'option Fixed width est sélectionnée dans la liste File type. |
Compressed by |
Cochez cette case et, dans la liste qui s'affiche, sélectionnez le type de compression des fichiers. |
Encrypt |
Cochez cette case pour crypter les fichiers retirés à l'aide du cryptage Amazon S3 côté client. Dans le champ Encryption Key qui s'affiche, spécifiez la clé de chiffrement utilisée pour chiffrer le(s) fichier(s) non chargés. Notez que seule une enveloppe de clé AES 128 bits ou AES 256 bits encodée en base64 est supportée. Pour plus d'informations, consultez Déchargement de fichiers de données chiffrés (uniquement en anglais). Comme le chiffrement côté client n'est pas supporté pour les fichiers Parquet, cette option fonctionne uniquement pour les fichiers délimités/CSV et à largeur fixe. Cette option n'est pas disponible lorsque la case Use an existing S3 connection est cochée. |
Specify null string |
Cochez cette case et, dans la liste qui s'affiche, sélectionnez une chaîne de caractères représentant une valeur nulle dans les fichiers retirés. |
Escape |
Cochez cette case pour placer un caractère d'échappement (\) avant chaque occurrence des caractères suivants pour les colonnes CHAR et VARCHAR dans les fichiers délimités non chargés : un saut de ligne (\n), un retour chariot (\r), le caractère de délimitation spécifié pour les données non chargées, le caractère d'échappement (\), un caractère guillemet (" ou '). |
Overwrite s3 object if exist |
Cochez cette case pour écraser les fichiers d'objets existant dans Amazon S3. |
Parallel |
Cochez cette case pour écrire les données en parallèle dans plusieurs fichiers retirés dans Amazon S3 selon le nombre de slices dans le cluster Redshift. |
JDBC URL |
Sélectionnez un moyen d'accéder à une base de données Amazon Redshift dans la liste déroulante JDBC URL.
|
tStatCatcher Statistics |
Cochez cette case pour collecter les métadonnées de traitement du Job au niveau du Job ainsi qu'au niveau de chaque composant. |
Variables globales
Variables globales |
ERROR_MESSAGE : message d'erreur généré par le composant lorsqu'une erreur survient. Cette variable est une variable After et retourne une chaîne de caractères. Cette variable fonctionne uniquement si la case Die on error est décochée, lorsque le composant contient cette case. Une variable Flow fonctionne durant l'exécution d'un composant. Pour renseigner un champ ou une expression à l'aide d'une variable, appuyez sur les touches Ctrl+Espace pour accéder à la liste des variables. À partir de cette liste, vous pouvez choisir la variable que vous souhaitez utiliser. Pour plus d'informations concernant les variables, consultez le Guide d'utilisation du Studio Talend. |
Utilisation
Règle d'utilisation |
Ce composant couvre toutes les requêtes SQL possibles pour la base de données Amazon Redshift. |
Dynamic settings |
Cliquez sur le bouton [+] pour ajouter une ligne à la table. Dans le champ Code, saisissez une variable de contexte afin de sélectionner dynamiquement votre connexion à la base de données parmi celles prévues dans votre Job. Cette fonctionnalité est utile si vous devez accéder à plusieurs tables de bases de données ayant la même structure mais se trouvant dans différentes bases de données, en particulier lorsque vous travaillez dans un environnement dans lequel vous ne pouvez pas changer les paramètres de votre Job, par exemple lorsque votre Job doit être déployé et exécuté indépendamment d'un Studio Talend. La table Dynamic settings est disponible uniquement lorsque la case Use an existing connection est cochée dans la vue Basic settings. Lorsqu'un paramètre dynamique est configuré, la liste Component List de la vue Basic settings devient inutilisable. Pour des exemples d'utilisation de paramètres dynamiques, consultez Lire des données dans des bases de données MySQL à l'aide de connexions dynamiques basées sur les variables de contexte et Lire des données à partir de différentes bases de données MySQL à l'aide de paramètres de connexion chargés dynamiquement. Pour plus d'informations concernant les paramètres dynamiques (Dynamic settings) et les variables de contexte, consultez le Guide d'utilisation du Studio Talend. |