跳到主要内容
跳到补充内容
Qlik.com
Community
Learning
中文(中国) (更改)
Deutsch
English
Français
日本語
中文(中国)
关闭
文档
Qlik Talend 文档
发行说明
安装和升级
数据集成
管理和执行
数据质量和治理
应用程序和 API 集成
额外资源
API 文档门户
安全门户
Talend 存档
Qlik 帮助
Getting Started
Getting started with Talend cloud
Talend Cloud
Talend Cloud API Designer
Talend Cloud Data Inventory
Talend Cloud Data Preparation
Talend Cloud Data Stewardship
Talend Cloud Pipeline Designer
Talend Cloud API Services Platform
Getting started with Talend on premises
Talend Data Fabric
Talend Data Preparation
Talend Data Stewardship
前往 Qlik 帮助
中文(中国) (更改)
Deutsch
English
Français
日本語
中文(中国)
搜索
搜索帮助
菜单
关闭
搜索帮助
在此处留下您的反馈
Talend Data Fabric 入门指南
Talend Data Fabric 应用实例
为 Big Data 执行数据集成任务
Spark Streaming 作业入门
场景:将 Avro 数据流写入 HDFS
选择 Spark 模式
为您的 Apache Spark Streaming 作业配置 Spark Stream
在该页面上
步骤
定义您的 Spark 作业创建和处理数据微流的频率。
步骤
在
Batch size (批处理大小)
字段中,输入作业检查源数据以识别更改以及处理新的数据微流的时间间隔。
如果需要,选中
Define a streaming timeout (定义流式处理超时)
复选框,然后在显示的字段中输入流式处理作业自动停止运行的时间范围。
本页面有帮助吗?
如果您发现此页面或其内容有任何问题 – 打字错误、遗漏步骤或技术错误 – 请告诉我们!
在此处留下您的反馈
上一个主题
选择 Spark 模式
下一个主题
配置到 Spark 使用的文件系统的连接