跳到主要内容
Qlik.com
Community
Learning
中文(中国) (更改)
Deutsch
English
Français
日本語
中文(中国)
关闭
文档
Qlik Talend 文档
发行说明
安装和升级
数据集成
管理和执行
数据质量和治理
应用程序和 API 集成
额外资源
API 文档门户
安全门户
Talend 存档
Qlik 帮助
Getting Started
Getting started with Talend cloud
Talend Cloud
Talend Cloud API Designer
Talend Cloud Data Inventory
Talend Cloud Data Preparation
Talend Cloud Data Stewardship
Talend Cloud Pipeline Designer
Talend Cloud API Services Platform
Getting started with Talend on premises
Talend Data Fabric
Talend Data Preparation
Talend Data Stewardship
前往 Qlik 帮助
中文(中国) (更改)
Deutsch
English
Français
日本語
中文(中国)
搜索
搜索帮助
菜单
关闭
搜索帮助
在此处留下您的反馈
Talend Data Fabric 入门指南
Talend Data Fabric 应用实例
为 Big Data 执行数据集成任务
Spark Streaming 作业入门
场景:将 Avro 数据流写入 HDFS
在本场景中,您创建了一个非常简单的 Spark Streaming 作业。此作业将自行生成示例数据流,并以 Avro 格式将此数据流写入给定的 HDFS 系统。
在复制本场景之前,请确保您有适当的权利和权限访问要使用的 Hadoop 发行版。
在该部分中
连接组件
选择 Spark 模式
配置到 Spark 使用的文件系统的连接
生成示例数据
将数据写入 HDFS
本页面有帮助吗?
如果您发现此页面或其内容有任何问题 – 打字错误、遗漏步骤或技术错误 – 请告诉我们!
在此处留下您的反馈
上一个主题
Spark Streaming 作业入门
下一个主题
连接组件