Propriétés du tAggregateRow pour Apache Spark Batch
Ces propriétés sont utilisées pour configurer le tAggregateRow s'exécutant dans le framework de Jobs Spark Batch.
Le composant tAggregateRow Spark Batch appartient à la famille Processus en cours.
Le composant de ce framework est disponible dans tous les produits Talend avec Big Data nécessitant une souscription et dans Talend Data Fabric.
Basic settings
Propriétés | Description |
---|---|
Schema et Edit Schema |
|
Group by |
|
Operations |
|
Advanced settings
Propriétés | Description |
---|---|
Use financial precision, this is the max precision for "sum" and "avg" operations, checked option heaps more memory and slower than unchecked. |
Sélectionnez cette case pour utiliser la précision financière. C'est une précision maximale, mais qui consomme plus de mémoire et rend le processus plus lent. Note InformationsAvertissement :
Il est conseillé d'utiliser le type BigDecimal en sortie avec cette option, afin d'obtenir des résultats précis. |
Check type overflow (slower) |
Vérifie les types des données afin d'éviter que le Job ne plante. |
Check ULP (Unit in the Last Place), ensure that a value will be incremented or decremented correctly, only float and double types. (slower) |
Cochez cette case afin d'avoir la meilleure précision possible pour les types Float et Double. |
Utilisation
Conseils d'utilisation | Description |
---|---|
Règle d'utilisation |
Ce composant est utilisé comme étape intermédiaire. Ce composant, ainsi que la Palette Spark Batch à laquelle il appartient, ne s'affiche que lorsque vous créez un Job Spark Batch. Notez que, dans cette documentation, sauf mention contraire, un scénario présente uniquement des Jobs Standard, c'est-à-dire des Jobs Talend traditionnels d'intégration de données. |
Connexion à Spark |
Dans l'onglet Spark Configuration de la vue Run, définissez la connexion à un cluster Spark donné pour le Job complet. De plus, puisque le Job attend ses fichiers .jar dépendants pour l'exécution, vous devez spécifier le répertoire du système de fichiers dans lequel ces fichiers .jar sont transférés afin que Spark puisse accéder à ces fichiers :
Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie. |