メイン コンテンツをスキップする
補完的コンテンツへスキップ
Qlik.com
Community
Learning
日本語 (変更)
Deutsch
English
Français
日本語
中文(中国)
閉じる
ドキュメント
Qlik Talend ドキュメンテーション
リリース ノート
インストールとアップグレード
データ統合
管理と実行
データ品質とガバナンス
アプリケーションと API 統合
追加のリソース
API ドキュメンテーション ポータル
セキュリティ ポータル
Talend アーカイブ
Qlik ヘルプ
Getting Started
Getting started with Talend cloud
Talend Cloud
Talend Cloud API Designer
Talend Cloud Data Inventory
Talend Cloud Data Preparation
Talend Cloud Data Stewardship
Talend Cloud Pipeline Designer
Talend Cloud API Services Platform
Getting started with Talend on premises
Talend Data Fabric
Talend Data Preparation
Talend Data Stewardship
Qlik ヘルプに移動
日本語 (変更)
Deutsch
English
Français
日本語
中文(中国)
検索
ヘルプを検索
メニュー
閉じる
ヘルプを検索
こちらにフィードバックをお寄せください
Talend Components
Change Data Capture
データ キャプチャーの変更関連項目
ベストプラクティス: Big DataでSparkを使ったChange Data Capture
ビッグデータでSparkを使用したCDC
ステップ1:データベーステーブルデータをHive内部テーブルにロードする
このページ上
手順
手順
データベーステーブルデータをHive内部テーブル
employee
にロードする標準ジョブを作成します。
tHiveCreateTable
および
tHiveLoad
コンポーネントを使用して、データをHiveテーブルにロードします。
Talend Big Dataバッチジョブは次のとおりです:
データはMySQLソーステーブルから移動され
employee_table
からHiveの
employee
テーブルに移動します。
tHiveConfiguration_1
および
tHDFSConfiguration_1
コンポーネントは、HiveとHDFSの構成を設定するために使われます。
tMysqlInput
コンポーネントは、MySQLデータベースからデータを読み取ります。
tHiveOutput
コンポーネントは、データをHiveテーブルにロードします。
ジョブを実行します。
以下に、ジョブ実行後の
employee
Hiveテーブル内のデータを示します:
このページは役に立ちましたか?
このページまたはコンテンツにタイポ、ステップの省略、技術的エラーなどの問題が見つかった場合はお知らせください。
こちらにフィードバックをお寄せください
前のトピック
[Data Model] (データモデル)
次のトピック
ステップ2: ソースデータベーステーブルからHive外部テーブルへ変更をロードする