メイン コンテンツをスキップする
補完的コンテンツへスキップ
Qlik.com
Community
Learning
日本語 (変更)
Deutsch
English
Français
日本語
中文(中国)
閉じる
ドキュメント
Qlik Talend ドキュメンテーション
リリース ノート
インストールとアップグレード
データ統合
管理と実行
データ品質とガバナンス
アプリケーションと API 統合
追加のリソース
API ドキュメンテーション ポータル
セキュリティ ポータル
Talend アーカイブ
Qlik ヘルプ
Getting Started
Getting started with Talend cloud
Talend Cloud
Talend Cloud API Designer
Talend Cloud Data Inventory
Talend Cloud Data Preparation
Talend Cloud Data Stewardship
Talend Cloud Pipeline Designer
Talend Cloud API Services Platform
Getting started with Talend on premises
Talend Data Fabric
Talend Data Preparation
Talend Data Stewardship
Qlik ヘルプに移動
日本語 (変更)
Deutsch
English
Français
日本語
中文(中国)
検索
ヘルプを検索
メニュー
閉じる
ヘルプを検索
こちらにフィードバックをお寄せください
Talend Components
MongoDB
MongoDBのシナリオ
Spark Batchジョブを使用してMongoDBでデータの読み書きを行う
コンポーネントをリンク
このページ上
手順
手順
Studioの
Integration
パースペクティブで、
[Repository] (リポジトリー)
ツリービューの
[Job Designs] (ジョブデザイン)
ノードから空のSpark Batchジョブを1つ作成します。
Spark Batchジョブの作成方法は、
Talend Big Data入門ガイド
をご覧ください。
ワークスペース内に使用するコンポーネントの名前を入力し、表示されるリストからこのコンポーネントを選択します。このシナリオでは、コンポーネントは、
tHDFSConfiguration
、
tMongoDBConfiguration
、
tFixedFlowInput
、
tMongoDBOutput
、
tMongoDBInput
および
tLogRow
になります。
tFixedFlowInput
コンポーネントは、サンプルデータをデータフローにロードするために使用されます。現実のケースでは
tFixedFlowInput
の代わりに
tFileInputDelimited
や
tMap
といった他のコンポーネントを使用して転送するデータを準備する、より洗練されたプロセスを設計できます。
[Row] (行) > [Main] (メイン)
リンクを使用して
tFixedFlowInput
を
tMongoDBOutput
に接続します。
[Row] (行) > [Main] (メイン)
リンクを使用して
tMongoDBInput
を
tLogRow
に接続します。
[Trigger] (トリガー) > [OnSubjobOk]
リンクを使用して
tFixedFlowInput
を
tMongoDBInput
に接続します。
tHDFSConfiguration
および
tMongoDBConfiguration
は接続しないでおきます。
このページは役に立ちましたか?
このページまたはコンテンツにタイポ、ステップの省略、技術的エラーなどの問題が見つかった場合はお知らせください。
こちらにフィードバックをお寄せください
前のトピック
Spark Batchジョブを使用してMongoDBでデータの読み書きを行う
次のトピック
Sparkモードの選択