Propriétés du tTop MapReduce (déprécié)
Ces propriétés sont utilisées pour configurer le tTop s'exécutant dans le framework de Jobs MapReduce.
Le composant tTop MapReduce appartient à la famille Processus en cours.
Le composant de ce framework est disponible dans tous les produits Talend avec Big Data et dans Talend Data Fabric.
Le framework MapReduce est déprécié à partir de la version 7.3 de Talend. Utilisez des Jobs Talend pour Apache Spark afin d'accomplir vos tâches d'intégration.Basic settings
Schema et Edit Schema |
Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs. Créez le schéma en cliquant sur le bouton Edit Schema. Si le schéma est en mode Repository, trois options sont disponibles :
Cliquez sur Sync columns pour récupérer le schéma du composant précédent dans le Job. |
|
Built-in : le schéma est créé et conservé localement pour ce composant seulement. |
|
Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets. |
Number of line selected |
Saisissez le nombre de lignes à écrire en sortie. Le composant courant sélectionne ce nombre de lignes en partant des premières données triées. |
Criteria |
Cliquez sur le bouton [+] pour ajouter autant de lignes que nécessaire pour terminer le tri. |
|
Dans la colonne Schema column, sélectionnez la colonne du schéma sur laquelle baser le tri. Notez que l'ordre est important car il détermine la priorité de tri. |
|
Dans les autres colonnes, sélectionnez comment trier les données. Par exemple, si vous devez trier les données par ordre alphabétique ascendant (de A à Z), sélectionnez alpha et asc dans les colonnes correspondantes. |
Utilisation
Règle d'utilisation |
Dans un Job Map/Reduce Talend, il est utilisé comme étape intermédiaire, avec d'autres composants Map/Reduce. Ils génèrent nativement du code Map/Reduce pouvant être exécuté directement dans Hadoop. Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie. Notez que, dans cette documentation, sauf mention contraire, un scénario présente uniquement des Jobs Standard, c'est-à-dire des Jobs Talend traditionnels d'intégration de données et non des Jobs Map/Reduce. |
Hadoop Connection |
Vous devez utiliser l'onglet Hadoop Configuration de la vue Run afin de définir la connexion à une distribution Hadoop donnée pour le Job complet. Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie. |