メイン コンテンツをスキップする
補完的コンテンツへスキップ
Qlik.com
Community
Learning
日本語 (変更)
Deutsch
English
Français
日本語
中文(中国)
閉じる
ドキュメント
Qlik Talend ドキュメンテーション
リリース ノート
インストールとアップグレード
データ統合
管理と実行
データ品質とガバナンス
アプリケーションと API 統合
追加のリソース
API ドキュメンテーション ポータル
セキュリティ ポータル
Talend アーカイブ
Qlik ヘルプ
Getting Started
Getting started with Talend cloud
Talend Cloud
Talend Cloud API Designer
Talend Cloud Data Inventory
Talend Cloud Data Preparation
Talend Cloud Data Stewardship
Talend Cloud Pipeline Designer
Talend Cloud API Services Platform
Getting started with Talend on premises
Talend Data Fabric
Talend Data Preparation
Talend Data Stewardship
Qlik ヘルプに移動
日本語 (変更)
Deutsch
English
Français
日本語
中文(中国)
検索
ヘルプを検索
メニュー
閉じる
ヘルプを検索
こちらにフィードバックをお寄せください
Talend Components
Processing (インテグレーション)
Processing (インテグレーション)のシナリオ
Map/Reduceコンポーネントを使用したJavaタイプの変換
コンポーネントの設定
tHDFSInputを設定する
このページ上
手順
手順
tHDFSInput
コンポーネントをダブルクリックし、
[Component] (コンポーネント)
ビューを開きます。
[Edit schema] (スキーマを編集)
の横にある
ボタンをクリックして、前の手順で受信したスキーマが正しく定義されていることを確認します。
このジョブを最初から作成する場合は、
ボタンをクリックしてスキーマを手動で定義する必要があります。スキーマが
[Repository] (リポジトリー)
で定義されている場合は、
[Basic settings] (基本設定)
ビューの
[Schema] (スキーマ)
リストから
[Repository] (リポジトリー)
オプションを選択して再利用できます。
[Repository] (リポジトリー)
でスキーマを定義する方法は、
Talend Studio
ユーザーガイド
の「メタデータ管理」の章か、
Talend Big Data入門ガイド
の
リポジトリー
にある
Hadoopクラスター
ノードに関する章をご覧ください。
スキーマに変更を加えた場合は、
[OK]
をクリックしてこれらの変更を検証し、ポップアップダイアログボックスに表示される伝達を受け入れます。
[Folder/File] (フォルダー/ファイル)
フィールドにパスを入力するか、ジョブに読み込むソースファイルに移動します。
このファイルが使用するHDFSシステムにない場合は、
標準
ジョブで
tFileInputDelimited
および
tHDFSOutput
を使用するなどして、そのHDFSに保存する必要があります。
このページは役に立ちましたか?
このページまたはコンテンツにタイポ、ステップの省略、技術的エラーなどの問題が見つかった場合はお知らせください。
こちらにフィードバックをお寄せください
前のトピック
コンポーネントの設定
次のトピック
変換コンポーネントのレビュー