在Talend Administration Center 的 Job Conductor (作业控制台) 页面中,您可以定义一个执行任务来收集 MapReduce 和 Spark Batch 作业 的脚本生成、部署和执行阶段。
要使用的 Databricks 集群已正确配置,并且正在运行。
您已创建之前部分中描述的用例作业,并从 Studio 成功运行。
例如,它可以是使用 Apache Spark Batch 作业连接影片和导演信息中描述的 Spark Batch Job。
选中作业后,Project (工程)、Branch (分支)、Name (名称)、Version (版本) 和 Context (上下文) 字段会自动填充所选作业的相关信息。
请注意,如果选择了 Latest version (最新版本),则在 Studio 中创建新版本的作业时,即使未选中 Regenerate Job on change (更改时重新生成作业) 复选框,也会重新生成作业。
在这种情况下,服务器就是您在将 Talend Runtime Container 连接到 Talend Administration Center 中配置的 Talend Runtime 服务。
此新任务将添加到任务列表。
完成后,任务的状态将更改为 Ready to deploy (已准备好部署),这意味着生成的代码现已准备妥当,可部署在执行服务器上。
完成后,状态将更改为 Ready to run (已准备好运行)。这意味着服务器已收到作业,现在可以执行。
完成后,状态将切换回 Ready to run (已准备好运行),这意味着可以根据需要再次运行作业。
如果任务未正确完成,请检查 Error Status (错误状态) 列以及任务日志,获取作业完成信息。
完成后,您可以在 Microsoft Azure Storage Explorer 等工具中检查输出是否已写入 ADLS 文件系统。
如果您发现此页面或其内容有任何问题 – 打字错误、遗漏步骤或技术错误 – 请告诉我们!