Utiliser les composants HDFS pour travailler avec Azure Data Lake Store (ADLS)
Ce scénario décrit comment utiliser les composants HDFS pour lire des données de et écrire des données dans Azure Data Lake Storage.
Pour plus de technologies supportées par Talend, consultez Composants Talend.
Ce scénario s'applique uniquement aux solutions Talend avec Big Data.
-
un tFixedFlowInput : fournit les données d'exemple dans le Job,
-
un tHDFSOutput : écrit les données d'exemple dans Azure Data Lake Store,
-
un tHDFSInput : écrit les données d'exemple depuis Azure Data Lake Store,
-
un tLogRow : affiche la sortie du Job dans la console de la vue Run du Job.