Spark-Job
Ein Talend Spark-Job nutzt das Spark-Framework zur Verarbeitung von RDDs (Resilient Distributed Datasets - Robuste verteilte Datensätze) bzw. DSs (Datasets - Datensätze) auf der Grundlage eines bestimmten Spark-Clusters. Bei einem Spark-Job kann es sich um einen Spark Streaming- oder Spark Batch-Job handeln.