Apache Spark BatchのtLogRowのプロパティ
これらのプロパティは、Spark Batchジョブのフレームワークで実行されているtLogRowを設定するために使われます。
Spark BatchのtLogRowコンポーネントは、その他ファミリーに属しています。
このフレームワーク内のコンポーネントは、ビッグデータ対応のTalend 製品すべて、およびTalend Data Fabricで使用できます。
基本設定
[Define a storage configuration component] (ストレージ設定コンポーネントを定義) |
HDFSなどのターゲットファイルシステムへの接続の設定情報を提供するために使用する設定コンポーネントを選択します。 このチェックボックスをオフにすると、ターゲットファイルシステムはローカルシステムになります。 使用する接続設定は同じジョブ内にあることが必要です。たとえば、tHDFSConfigurationコンポーネントをジョブにドロップした場合は、このコンポーネントを選択して、所定のHDFSシステム内で結果を書き込むことができます。 |
[Schema] (スキーマ)と[Edit schema] (スキーマを編集) |
スキーマとは行の説明のことです。処理して次のコンポーネントに渡すフィールド(カラム)数を定義します。Sparkジョブを作成する場合、フィールドの命名時は予約語のlineを避けます。 スキーマを変更するには[Edit schema] (スキーマを編集)をクリックします。現在のスキーマがリポジトリータイプの場合は、3つのオプションを利用できます。
|
[Built-in] (組み込み): そのコンポーネントに対してのみスキーマを作成し、ローカルに保管します。 |
|
[Repository] (リポジトリー): スキーマは作成済みで、リポジトリーに保管されています。さまざまなプロジェクトやジョブデザインで再利用できます。 |
|
[Sync columns] (カラムを同期) | クリックすると、出力ファイルのスキーマと入力ファイルのスキーマが同期されます。同期機能は、コンポーネントが[Row] (行)接続を使用して先行のコンポーネントとリンクされている場合にのみ使用できます。 |
[Basic] (基本) | 出力フローを基本モードで表示します。 |
[Table] (テーブル) | 出力フローをテーブルのセルで表示します。 |
[Vertical] (垂直) |
出力フローの各行をキー値リストとして表示します。 このモードを選択すると、各出力行に対して、コンポーネントの一意の名前とラベルのいずれか、またはその両方を表示するかを選択できます。 |
[Separator] (区切り) (基本モードの場合のみ) |
ログ表示のデータを区切るセパレーターを入力します。 |
[Print header] (ヘッダーを印刷) (基本モードの場合のみ) |
このチェックボックスを選択すると、入力フローのヘッダーが出力ディスプレイに表示されます。 |
[Print component unique name in front of each output row] (各出力行の前にコンポーネントの固有名を印刷) (基本モードの場合のみ) |
このチェックボックスを選択すると、複数のtLogRowコンポーネントが使用される場合、出力を区別するために各出力行の前にコンポーネントの固有名が表示されます。 |
[Print schema column name in front of each value] (各値の前にスキーマのカラム名を表示) (基本モードの場合のみ) |
このチェックボックスを選択すると、出力スキーマからカラムラベルが取得されます。 |
[Use fixed length for values] (値に固定長を使用) (基本モードの場合のみ) |
このチェックボックスを選択すると、値の表示の固定幅が設定されます。 |
詳細設定
[Use local timezone for date] (日付にローカルタイムゾーンを使用) | ジョブが実行されるコンピューターのローカルな日付を使用する場合は、このチェックボックスを選択します。このチェックボックスをオフのままにしておくと、日付タイプのデータ形式にUTCが自動的に使用されます。 |
使用方法
使用ルール |
このコンポーネントは、中間ステップまたは終了ステップとして使用されます。 このコンポーネントは、所属するSpark Batchのコンポーネントのパレットと共に、Spark Batchジョブを作成している場合にだけ表示されます。 特に明記していない限り、このドキュメントのシナリオでは、標準ジョブ、つまり従来の Talend データ統合ジョブだけを扱います。 |
[Spark Connection] (Spark接続) |
[Run] (実行)ビューの[Spark configuration] (Spark設定)タブで、ジョブ全体でのSparkクラスターへの接続を定義します。また、ジョブでは、依存jarファイルを実行することを想定しているため、Sparkがこれらのjarファイルにアクセスできるように、これらのファイルの転送先にするファイルシステム内のディレクトリーを指定する必要があります。
この接続は、ジョブごとに有効になります。 |