Apache Spark BatchのtMatchIndexプロパティ
これらのプロパティは、Spark Batchジョブのフレームワークで実行されているtMatchIndexを設定するために使われます。
Spark BatchのtMatchIndexコンポーネントは、データクオリティファミリーに属しています。
このフレームワークのコンポーネントは、すべてのビッグデータ対応のTalendプラットフォーム製品およびTalend Data Fabricで使用できます。
基本設定
[Define a storage configuration component] (ストレージ設定コンポーネントを定義) |
HDFSなどのターゲットファイルシステムへの接続の設定情報を提供するために使用する設定コンポーネントを選択します。 このチェックボックスをオフにすると、ターゲットファイルシステムはローカルシステムになります。 使用する接続設定は同じジョブ内にあることが必要です。たとえば、tHDFSConfigurationコンポーネントをジョブにドロップした場合は、このコンポーネントを選択して、所定のHDFSシステム内で結果を書き込むことができます。 |
[Schema] (スキーマ)と[Edit Schema] (スキーマを編集) |
スキーマとは行の説明のことです。処理して次のコンポーネントに渡すフィールド(カラム)数を定義します。Sparkジョブを作成する場合、フィールドの命名時は予約語のlineを避けます。 ジョブで接続している先行コンポーネントからスキーマを取得するためには、[Sync columns] (カラムを同期)をクリックします。 スキーマを変更するには[Edit schema] (スキーマを編集)をクリックします。現在のスキーマがリポジトリータイプの場合は、3つのオプションを利用できます。
読み取り専用カラムが出力スキーマに追加されます。
|
|
[Built-in] (組み込み): そのコンポーネントに対してのみスキーマを作成し、ローカルに保管します。 |
|
[Repository] (リポジトリー): スキーマは作成済みで、リポジトリーに保管されています。さまざまなプロジェクトやジョブデザインで再利用できます。 |
[ElasticSearch configuration] (ElasticSearch設定) |
[Nodes] (ノード): 使用するElasticsearchシステムをホストしているクラスターのロケーションを入力します。 [Index] (インデックス): ElasticSearch内に作成するインデックスの名前を入力します。 [Index] (インデックス)フィールドで指定したElasticSearchインデックスをクリーン化するには、[Reset index] (インデックスのリセット)チェックボックスをオンにします。 TalendのコンポーネントでサポートされているElasticsearchのバージョンは、Spark Streamingジョブでは6.4.xで、Spark Batchジョブでは7.xと8.xです。 |
[Pairing] (ペアリング) |
[Pairing model folder] (ペアリングモデルフォルダー): tMatchPairingコンポーネントで生成したモデルファイルが含まれたフォルダーへのパスを設定するために使われます。 特定のファイルシステム(S3またはHDFSなど)にモデルを保存する場合は、ジョブで対応するコンポーネントを使用し、コンポーネントの基本設定で[Define a storage configuration component] (ストレージ設定コンポーネントを定義)チェックボックスをオンにする必要があります。 参照用のボタンはSpark Localモードでは機能しません。お使いのディストリビューションで、Talend Studioがサポートしているその他のSpark Yarnモードを使用している場合は、同じジョブ内の設定コンポーネントで接続を適切に設定したことを確認する必要があります。使用されるファイルシステムに応じて設定コンポーネントを使用します。 |
詳細設定
[Maximum ElasticSearch bulk size] (ElasticSearchの最大バルクサイズ) |
バルクインデックス化の最大レコード数。 tMatchIndexでは、大きなデータバッチをElasticSearchですばやくインデックスを作成できるように、バルクモードを使用してデータをインデックス化します。 デフォルト値をそのまま使用することをお勧めします。ジョブ実行がエラーで終わる場合は、このパラメーターの値を小さくします。 |
使用方法
使用ルール |
このコンポーネントは、終了コンポーネントとして使用され、入力リンクを必要とします。 このコンポーネントは、所属するSpark Batchのコンポーネントのパレットと共に、Spark Batchジョブを作成している場合にだけ表示されます。 |
[Spark Batch Connection] (Spark Batch接続) |
[Run] (実行)ビューの[Spark configuration] (Spark設定)タブで、ジョブ全体でのSparkクラスターへの接続を定義します。また、ジョブでは、依存jarファイルを実行することを想定しているため、Sparkがこれらのjarファイルにアクセスできるように、これらのファイルの転送先にするファイルシステム内のディレクトリーを指定する必要があります。
この接続は、ジョブごとに有効になります。 |