Propriétés du tAggregateRow pour Apache Spark Streaming
Ces propriétés sont utilisées pour configurer le tAggregateRow s'exécutant dans le framework de Jobs Spark Streaming.
Le composant tAggregateRow Spark Streaming appartient à la famille Processus en cours.
Ce composant est disponible dans Talend Real-Time Big Data Platform et dans Talend Data Fabric.
Basic settings
Propriétés | Description |
---|---|
Schema et Edit Schema |
|
Group by |
|
Operations |
|
Advanced settings
Propriétés | Description |
---|---|
Use financial precision, this is the max precision for "sum" and "avg" operations, checked option heaps more memory and slower than unchecked. |
Sélectionnez cette case pour utiliser la précision financière. C'est une précision maximale, mais qui consomme plus de mémoire et rend le processus plus lent. Note InformationsAvertissement :
Il est conseillé d'utiliser le type BigDecimal en sortie avec cette option, afin d'obtenir des résultats précis. |
Check type overflow (slower) |
Vérifie les types des données afin d'éviter que le Job ne plante. |
Check ULP (Unit in the Last Place), ensure that a value will be incremented or decremented correctly, only float and double types. (slower) |
Cochez cette case afin d'avoir la meilleure précision possible pour les types Float et Double. |
Utilisation
Conseils d'utilisation | Description |
---|---|
Règle d'utilisation |
Ce composant est utilisé comme étape intermédiaire. Ce composant, ainsi que les composants Spark Streaming de la Palette à laquelle il appartient, s'affichent uniquement lorsque vous créez un Job Spark Streaming. Notez que, dans cette documentation, sauf mention contraire, un scénario présente uniquement des Jobs Standard, c'est-à-dire des Jobs Talend traditionnels d'intégration de données. |
Connexion à Spark |
Dans l'onglet Spark Configuration de la vue Run, définissez la connexion à un cluster Spark donné pour le Job complet. De plus, puisque le Job attend ses fichiers .jar dépendants pour l'exécution, vous devez spécifier le répertoire du système de fichiers dans lequel ces fichiers .jar sont transférés afin que Spark puisse accéder à ces fichiers :
Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie. |