メイン コンテンツをスキップする
補完的コンテンツへスキップ
Qlik.com
Community
Learning
日本語 (変更)
Deutsch
English
Français
日本語
中文(中国)
閉じる
ドキュメント
Qlik Talend ドキュメンテーション
リリース ノート
インストールとアップグレード
データ統合
管理と実行
データ品質とガバナンス
アプリケーションと API 統合
追加のリソース
API ドキュメンテーション ポータル
セキュリティ ポータル
Talend アーカイブ
Qlik ヘルプ
Getting Started
Getting started with Talend cloud
Talend Cloud
Talend Cloud API Designer
Talend Cloud Data Inventory
Talend Cloud Data Preparation
Talend Cloud Data Stewardship
Talend Cloud Pipeline Designer
Talend Cloud API Services Platform
Getting started with Talend on premises
Talend Data Fabric
Talend Data Preparation
Talend Data Stewardship
Qlik ヘルプに移動
日本語 (変更)
Deutsch
English
Français
日本語
中文(中国)
検索
ヘルプを検索
メニュー
閉じる
ヘルプを検索
こちらにフィードバックをお寄せください
ジョブ用のTalendコンポーネント
Kafka
Kafkaのシナリオ
ほぼリアルタイムでTwitterの流れを分析する
特定のKafkaトピックからメッセージを読み取る
このページ上
手順
手順
tKafkaInput
をダブルクリックして、その
[Component] (コンポーネント)
ビューを開きます。
[Broker list] (ブローカーリスト)
フィールドに、使うKafkaクラスターのブローカーのロケーションを入力します。ロケーションはコンマ(
,
)で区切ります。この例では、ブローカーは1つだけ存在し、そのロケーションは
localhost:9092
です。
[Starting offset] (開始オフセット)
ドロップダウンリストから、トピックのメッセージが消費される開始点を選択します。このシナリオでは
[From latest] (最新から)
を選択します。これは、同じコンシューマーグループによって消費され、オフセットがコミットされた最新のメッセージから開始することを意味します。
[Topic name] (トピック名)
フィールドに、このジョブがTwitterストリームを消費するトピックの名前を入力します。このシナリオでのトピックは
twitter_live
です。
このトピックは、Kafkaシステムに存在している必要があります。Kafkaトピックの作成方法については、Apache Kafkaのドキュメントを参照するか、
tKafkaCreateTopic
コンポーネントを使ってください。ただし、
tKafkaCreateTopic
はSparkジョブでは使えません。
[Set number of records per second to read from each Kafka partition] (Kafkaの各パーティションから読み取る1秒あたりのレコード数を設定する)
チェックボックスをオンにします。これにより、処理のために送信される各マイクロバッチのサイズが制限されます。
このページは役に立ちましたか?
このページまたはコンテンツにタイポ、ステップの省略、技術的エラーなどの問題が見つかった場合はお知らせください。
こちらにフィードバックをお寄せください
前のトピック
Sparkが使用するファイルシステムに接続を設定
次のトピック
ツイートが分析される頻度を設定