Propriétés du tCollectAndCheck pour Apache Spark Batch
Ces propriétés sont utilisées pour configurer le tCollectAndCheck s'exécutant dans le framework de Jobs Spark Batch.
Le composant tCollectAndCheck Spark Batch appartient à la famille Technique.
Le composant de ce framework est disponible dans tous les produits Talend avec Big Data et dans Talend Data Fabric.
Basic settings
Configuration |
Cochez cette case pour récupérer les informations de connexion et les identifiants depuis un composant de configuration. Cochez cette case pour vérifier le type de données d'entrée suivant :
Dans la liste déroulante qui s'affiche, sélectionnez le composant de configuration duquel vous souhaitez que Spark utilise les détails de configuration pour se connecter à la base de données. Par exemple, si vous souhaitez vérifier des données Snowflake, vous devez sélectionner le composant tSnowflakeConfiguration. Note InformationsRemarque : Si vous souhaitez récupérer des données depuis S3, vous n'avez pas besoin d'utiliser le tS3Configuration, vous devez uniquement saisir le chemin d'accès complet au fichier dans le champ Path or table name, dans la vue Basic settings.
|
Type of input |
Sélectionnez dans la liste déroulante le type des données d'entrée à vérifier. |
Path or table name |
Saisissez le chemin d'accès au fichier ou à la table à vérifier, entre guillemets doubles. |
Separator |
Saisissez un caractère, une chaîne de caractères ou une expression régulière pour séparer les champs des données transférées. |
Line separator |
Saisissez le séparateur utilisé pour identifier la fin d'une ligne. |
Use context variable |
Si vous avez déjà créé la variable de contexte représentant le fichier de référence à utiliser, cochez cette case et saisissez cette variable dans le champ Variable name qui s'affiche. La syntaxe pour appeler une variable est context.VariableName. Pour plus d'informations concernant les variables, consultez le Guide d'utilisation du Studio Talend. |
Reference data |
Si vous ne souhaitez pas utiliser de variable de contexte représentant les données de référence à utiliser, saisissez ces données de référence directement dans le champ. Note InformationsRemarque :
À cause de la migration du composant du RDD au jeu de données, le modèle d'une date peut être uniquement yyyy-MM-dd et le modèle pour un horodatage peut être uniquement yyyy-MM-dd HH:mm:ss. Cela s'applique à partir de Spark 2.1. |
Keep the order from the reference |
Si les RDD à vérifier sont triés, cochez cette case pour trier vos données de référence. |
Advanced settings
When the reference is empty, expect no incoming value |
Par défaut, cette case est décochée, ce qui signifie que, lorsqu'un champ est vide dans les données de référence, le test attend un champ également vide dans les ensembles de données entrants en cours de vérification, afin de valider les résultats du test. Si vous souhaitez que le test n'attende pas de valeur lorsque la référence est vide, cochez cette case. |
Utilisation
Règle d'utilisation |
Ce composant est utilisé en tant que composant de fin et requiert un lien d'entrée. Ce composant est automatiquement ajouté à un scénario de test créé pour afficher les résultats du test dans la console de la vue Run. |
Connexion à Spark |
Dans l'onglet Spark Configuration de la vue Run, définissez la connexion à un cluster Spark donné pour le Job complet. De plus, puisque le Job attend ses fichiers .jar dépendants pour l'exécution, vous devez spécifier le répertoire du système de fichiers dans lequel ces fichiers .jar sont transférés afin que Spark puisse accéder à ces fichiers :
Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie. |