メイン コンテンツをスキップする
補完的コンテンツへスキップ
Qlik.com
Community
Learning
Qlik リソース
日本語 (変更)
Deutsch
English
Français
日本語
中文(中国)
閉じる
ドキュメント
Qlik Cloud
クライアント管理: データ分析
追加のドキュメント
Qlik Cloud
Qlik Cloud
ホーム
紹介
Qlik Cloud の新機能
What is Qlik Talend Cloud
分析
データ統合
管理
アプリケーションの自動化
開発
Other cloud solutions
Talend Cloud
Talend API Portal
Stitch
Upsolver
クライアント管理: データ分析
クライアント管理 — 分析
ユーザー向けの
Qlik Sense
管理者向け
Qlik Sense
開発者向け
Qlik Sense
Qlik NPrinting
Connectors
Qlik GeoAnalytics
Qlik Alerting
ユーザーと管理者向けの
QlikView
開発者向け
QlikView
Governance Dashboard
クライアント管理 — データ統合
Qlik Replicate
Qlik Compose
Qlik Enterprise Manager
Qlik Gold Client
Qlik Catalog
NodeGraph (legacy)
ホーム
インストールとアップグレード
データ統合
管理と実行
データの整合性とガバナンス
アプリケーションと API 統合
追加のドキュメント
追加のドキュメント
文書アーカイブ
Talend Documentation archive
オンボーディング
Get started with analytics
分析ユーザーのオンボーディング
Qlik Sense で分析を開始
Qlik Cloud Analytics Standard の管理
Qlik Cloud Analytics Premium および Enterprise の管理
Qlik Sense
Business
の管理
Qlik Sense
Enterprise SaaS
の管理
Qlik Cloud Government を管理
Windows 上の
Qlik Sense
Enterprise
の管理
ビデオ
移行センター
評価ガイド
Qlik リソース
Qlik ヘルプに移動
日本語 (変更)
Deutsch
English
Français
日本語
中文(中国)
検索
SearchUnify の検索をロード中
製品に関するサポートが必要な場合は、Qlik Support にお問い合わせください。
Qlik Customer Portal
メニュー
閉じる
ヘルプを検索
こちらにフィードバックをお寄せください
ジョブ用のTalendコンポーネント
Processing (インテグレーション)
Processing (インテグレーション)のシナリオ
Spark Batchジョブを使用したダウンロード分析の実行
コンポーネントをリンク
このページ上
手順
手順
Talend Studio
の
Integration
パースペクティブで、
[Repository] (リポジトリー)
ツリービューの
[Job Designs] (ジョブデザイン)
ノードから空のSpark Batchジョブを1つ作成します。
Spark Batchジョブの作成方法は、
Spark Batchジョブを作成
をご覧ください。
ワークスペース内に使用するコンポーネントの名前を入力し、表示されるリストからこのコンポーネントを選択します。このシナリオでは、コンポーネントは、
tHDFSConfiguration
、2つの
tFixedFlowInput
コンポーネント(ラベル1は
customer_base
に、もう1つは
web_data
に)、
tSqlRow
、
tCacheOut
、
tCacheIn
、
tMap
、
tExtractDelimitedFields
、
tAggregateRow
、
tTop
、および
tLogRow
です。
tFixedFlowInput
コンポーネントは、サンプルデータをデータフローにロードするために使用されます。現実のケースでは
tFixedFlowInput
の代わりに
tMysqlInput
や
tMap
といった他のコンポーネントを使って処理するデータを準備する、より洗練されたプロセスを設計できます。
[Row] (行) > [Main] (メイン)
リンクを使って、
customer_base
(
tFixedFlowInput
)、
tSqlRow
、
tCacheOut
を接続します。このサブジョブでは、シルバーレベルの顧客に関するレコードが選択され、キャッシュに保管されます。
[Row] (行) > [Main] (メイン)
リンクを使って、
web_data
(
tFixedFlowInput
)を
tMap
に接続します。これは、
tMap
コンポーネントへの主な入力フローです。
同じ手順で、
tCacheIn
を
tMap
に接続します。これは
tMap
へのルックアップフローです。
[Row] (行) > [Main] (メイン)
リンクを使って
tMap
を
tExtractDelimitedFields
に接続し、表示されるダイアログボックスでこの接続に名前を付けます。たとえば、
output
という名前を付けます。
[Row] (行) > [Main] (メイン)
リンクを使って、
tExtractDelimitedFields
、
tAggregateRow
、
tTop
、
tLogRow
を接続します。
[Trigger] (トリガー) > OnSubjobOk
リンクを使って、
customer_base
を
web_data
に接続します。
tHDFSConfiguration
コンポーネントは、接続しないでおきます。
このページは役に立ちましたか?
このページまたはコンテンツにタイポ、ステップの省略、技術的エラーなどの問題が見つかった場合はお知らせください。
こちらにフィードバックをお寄せください
前のトピック
Spark Batchジョブを使用したダウンロード分析の実行
次のトピック
Sparkモードの選択