Apache Spark BatchのtExtractPositionalFieldsプロパティ
これらのプロパティは、Spark Batchジョブのフレームワークで実行されているtExtractPositionalFieldsを設定するために使われます。
Spark BatchのtExtractPositionalFieldsコンポーネントは、変換処理ファミリーに属しています。
このフレームワーク内のコンポーネントは、ビッグデータ対応のTalend 製品すべて、およびTalend Data Fabricで使用できます。
基本設定
Prev.Comp.Columnリスト |
[Field] (フィールド)リストから抽出する受信フィールドを選択します。 |
[Customize] (カスタマイズ) |
位置ファイルのデータ形式をカスタマイズし、テーブルカラムを定義するには、このチェックボックスをオンにします。 [Column] (カラム): カスタマイズするカラムを選択します。 [Size] (サイズ): カラムのサイズを入力します。 Padding char (パディング文字): パディング文字をフィールドから削除するために、反転したコンマの間にパディング文字を入力します。デフォルトの埋め込み文字はスペースです。 [Alignment] (整列): 適切な整列パラメーターを選択します。 |
[Pattern] (パターン) |
抽出のベースとして使用するパターンを入力します。 パターンはコンマで区切られた長さの値で、引用符で囲まれた文字列として解釈されます。このフィールドに入力された値が、定義されたスキーマと一貫していることをご確認ください。 |
[Die on error] (エラー発生時に強制終了) |
このチェックボックスを選択すると、エラー発生時にジョブの実行が停止されます。 |
[Schema] (スキーマ)と[Edit Schema] (スキーマを編集) |
スキーマとは行の説明のことです。処理して次のコンポーネントに渡すフィールド(カラム)数を定義します。Sparkジョブを作成する場合、フィールドの命名時は予約語のlineを避けます。 スキーマを変更するには[Edit schema] (スキーマを編集)をクリックします。現在のスキーマがリポジトリータイプの場合は、3つのオプションを利用できます。
ジョブで接続している先行コンポーネントからスキーマを取得するためには、[Sync columns] (カラムを同期)をクリックします。 |
|
[Built-in] (組み込み): そのコンポーネントに対してのみスキーマを作成し、ローカルに保管します。 |
|
[Repository] (リポジトリー): スキーマは作成済みで、リポジトリーに保管されています。さまざまなプロジェクトやジョブデザインで再利用できます。 |
詳細設定
[Advanced separator (for number)] (高度な区切り文字:数値) |
数値に使用する区切りを変更する場合は、このチェックボックスを選択します。デフォルトでは、桁区切りはコンマ(,)で、小数点区切りはピリオド(.)です。 |
[Trim column] (カラムをトリミング) |
このチェックボックスをオンにすると、先行ホワイトスペースおよび後続ホワイトスペースがすべてのカラムから削除されます。 |
[Check each row structure against schema] (スキーマに対して各行ストラクチャーをチェック) |
このチェックボックスを選択すると、各行のカラム総数がスキーマと一致するかどうかチェックされます。一致しない場合、コンソール上にエラーメッセージが表示されます。 |
使用方法
使用ルール |
このコンポーネントは、中間ステップとして使用されます。 このコンポーネントは、所属するSpark Batchのコンポーネントのパレットと共に、Spark Batchジョブを作成している場合にだけ表示されます。 特に明記していない限り、このドキュメントのシナリオでは、標準ジョブ、つまり従来の Talend データ統合ジョブだけを扱います。 |
[Spark Connection] (Spark接続) |
[Run] (実行)ビューの[Spark configuration] (Spark設定)タブで、ジョブ全体でのSparkクラスターへの接続を定義します。また、ジョブでは、依存jarファイルを実行することを想定しているため、Sparkがこれらのjarファイルにアクセスできるように、これらのファイルの転送先にするファイルシステム内のディレクトリーを指定する必要があります。
この接続は、ジョブごとに有効になります。 |