Dans la perspective Integration du Studio, créez un Job Spark Batch vide depuis le nœud Job Designs de la vue Repository.
Pour plus d'informations concernant la création d'un Job Spark Batch, consultez le Guide de prise en main de Talend Big Data .
Dans l'espace de modélisation, saisissez le nom du composant à utiliser et sélectionnez ce composant dans la liste qui apparaît. Dans ce scénario, les composants sont tHDFSConfiguration, tMongoDBConfiguration, tFixedFlowInput, tMongoDBOutput, tMongoDBInput et tLogRow.
Les composants tFixedFlowInput sont utilisés pour charger les données d'exemple dans le flux de données. Dans un scénario réel, vous pouvez utiliser d'autres composants, comme le tFileInputDelimited, seul ou avec un tMap, à la place du tFixedFlowInput, afin de construire un processus sophistiqué pour préparer vos données au traitement.
Reliez le tFixedFlowInput au tMongoDBOutput à l'aide d'un lien Row > Main.
Reliez le tMongoDBInput au tLogRow à l'aide d'un lien Row > Main.
Reliez le tFixedFlowInput au tMongoDBInput à l'aide d'un lien Trigger > OnSubjobOk.
Laissez les composants tHDFSConfiguration et tMongoDBConfiguration sans lien.
Cette page vous a-t-elle aidé ?
Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – faites-le-nous savoir.