Accéder au contenu principal Passer au contenu complémentaire

Propriétés du tCollectAndCheck pour Apache Spark Batch

Ces propriétés sont utilisées pour configurer le tCollectAndCheck s'exécutant dans le framework de Jobs Spark Batch.

Le composant tCollectAndCheck Spark Batch appartient à la famille Technique.

Le composant de ce framework est disponible dans tous les produits Talend avec Big Data nécessitant une souscription et dans Talend Data Fabric.

Basic settings

Configuration

Cochez cette case pour récupérer les informations de connexion et les identifiants depuis un composant de configuration. Cochez cette case pour vérifier le type de données d'entrée suivant :
  • HBase
  • JDBC
  • MySQL
  • Redshift
  • Snowflake

Dans la liste déroulante qui s'affiche, sélectionnez le composant de configuration duquel vous souhaitez que Spark utilise les détails de configuration pour se connecter à la base de données. Par exemple, si vous souhaitez vérifier des données Snowflake, vous devez sélectionner le composant tSnowflakeConfiguration.

Note InformationsRemarque : Si vous souhaitez récupérer des données depuis S3, vous n'avez pas besoin d'utiliser le tS3Configuration, vous devez uniquement saisir le chemin d'accès complet au fichier dans le champ Path or table name, dans la vue Basic settings.

Type of input

Sélectionnez dans la liste déroulante le type des données d'entrée à vérifier.

Path or table name

Saisissez le chemin d'accès au fichier ou à la table à vérifier, entre guillemets doubles.

Separator

Saisissez un caractère, une chaîne de caractères ou une expression régulière pour séparer les champs des données transférées.

Line separator

Saisissez le séparateur utilisé pour identifier la fin d'une ligne.

Use context variable

Si vous avez déjà créé la variable de contexte représentant le fichier de référence à utiliser, cochez cette case et saisissez cette variable dans le champ Variable name qui s'affiche.

La syntaxe pour appeler une variable est context.VariableName.

Pour plus d'informations concernant les variables, consultez Utiliser les contextes et les variables.

Reference data

Si vous ne souhaitez pas utiliser de variable de contexte représentant les données de référence à utiliser, saisissez ces données de référence directement dans le champ.

Note InformationsRemarque :

À cause de la migration du composant du RDD au jeu de données, le modèle d'une date peut être uniquement yyyy-MM-dd et le modèle pour un horodatage peut être uniquement yyyy-MM-dd HH:mm:ss.

Cela s'applique à partir de Spark 2.1.

Keep the order from the reference

Si les RDD à vérifier sont triés, cochez cette case pour trier vos données de référence.

Advanced settings

When the reference is empty, expect no incoming value

Par défaut, cette case est décochée, ce qui signifie que, lorsqu'un champ est vide dans les données de référence, le test attend un champ également vide dans les jeux de données entrants en cours de vérification, afin de valider les résultats du test.

Si vous souhaitez que le test n'attende pas de valeur lorsque la référence est vide, cochez cette case.

Utilisation

Règle d'utilisation

Ce composant est utilisé en tant que composant de fin et requiert un lien d'entrée.

Ce composant est automatiquement ajouté à un scénario de test créé pour afficher les résultats du test dans la console de la vue Run.

Connexion à Spark

Dans l'onglet Spark Configuration de la vue Run, définissez la connexion à un cluster Spark donné pour le Job complet. De plus, puisque le Job attend ses fichiers .jar dépendants pour l'exécution, vous devez spécifier le répertoire du système de fichiers dans lequel ces fichiers .jar sont transférés afin que Spark puisse accéder à ces fichiers :
  • Yarn mode (Yarn Client ou Yarn Cluster) :
    • Lorsque vous utilisez Google Dataproc, spécifiez un bucket dans le champ Google Storage staging bucket de l'onglet Spark configuration.

    • Lorsque vous utilisez HDInsight, spécifiez le blob à utiliser pour le déploiement du Job, dans la zone Windows Azure Storage configuration de l'onglet Spark configuration.

    • Lorsque vous utilisez Altus, spécifiez le bucket S3 ou le stockage Azure Data Lake Storage (aperçu technique) pour le déploiement du Job, dans l'onglet Spark configuration.
    • Lorsque vous utilisez des distributions sur site (on-premises), utilisez le composant de configuration correspondant au système de fichiers utilisé par votre cluster. Généralement, ce système est HDFS et vous devez utiliser le tHDFSConfiguration.

  • Standalone mode : utilisez le composant de configuration correspondant au système de fichiers que votre cluster utilise, comme le tHDFSConfiguration Apache Spark Batch ou le tS3Configuration Apache Spark Batch.

    Si vous utilisez Databricks sans composant de configuration dans votre Job, vos données métier sont écrites directement dans DBFS (Databricks Filesystem).

Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie.

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – faites-le-nous savoir.