Zu Hauptinhalt springen

Spark-Job

Ein Talend Spark-Job nutzt das Spark-Framework zur Verarbeitung von RDDs (Resilient Distributed Datasets - Robuste verteilte Datensätze) bzw. DSs (Datasets - Datensätze) auf der Grundlage eines bestimmten Spark-Clusters. Bei einem Spark-Job kann es sich um einen Spark Streaming- oder Spark Batch-Job handeln.

Hat diese Seite Ihnen geholfen?

Wenn Sie ein Problem mit dieser Seite oder ihrem Inhalt feststellen, sei es ein Tippfehler, ein ausgelassener Schritt oder ein technischer Fehler, informieren Sie uns bitte!