Apache Spark BatchのtCassandraInputプロパティ
これらのプロパティは、Spark Batchジョブのフレームワークで実行されているtCassandraInputの設定に使用します。
Spark BatchのtCassandraInputコンポーネントは、データベースファミリーに属しています。
このフレームワーク内のコンポーネントは、ビッグデータ対応のTalend 製品すべて、およびTalend Data Fabricで使用できます。
基本設定
[Schema] (スキーマ)と[Edit Schema] (スキーマを編集) |
スキーマとは行の説明のことです。処理して次のコンポーネントに渡すフィールド(カラム)数を定義します。Sparkジョブを作成する場合、フィールドの命名時は予約語のlineを避けます。 スキーマを変更するには[Edit schema] (スキーマを編集)をクリックします。現在のスキーマがリポジトリータイプの場合は、3つのオプションを利用できます。
このコンポーネントのスキーマは、オブジェクトタイプとリストタイプに対応していません。 |
[Keyspace] |
データを読み取るキースペースの名前を入力します。 |
[Column family] (カラムファミリー) |
データを読み取るカラムファミリーの名前を入力します。 |
[Selected column function] (選択済みカラムファンクション) |
[TTL](存続期間)または[writeTime]プロパティを取得するために必要なカラムを選択します。 [TTL]プロパティは、カラムのレコードが期限切れになるまでの時間を判別します。[writeTime]プロパティは、レコードが作成された時刻を示します。 これらのプロパティの詳細は、Cassandra CQLに関するDatastaxのドキュメンテーションをご覧ください。 |
[Filter function] (フィルターファンクション) |
処理するレコードを選択するために使用する必要があるフィルターを定義します。 コンポーネントでは使用するフィルターによりWHERE ALLOW FILTERING句が生成されるため、このフィルターファンクションはこのCassandra句の制限に依存することになります。 |
[Order by clustering column] (クラスタリングカラム別の順序) |
取得レコードをソートする方法を選択します。データをソートしない場合、[NONE] (なし)を選択できます。 |
[Use limit] (使用制限) |
このチェックボックスを選択すると、 最初の行から取得する行数を入力する[Limit per partition] (パーティションごとの制限)フィールドが表示されます。 |
使用方法
使用ルール |
このコンポーネントは、開始コンポーネントとして使用され、出力リンクを必要とします。 このコンポーネントでは、同じジョブに存在するtCassandraConfigurationコンポーネントを1つのみ使用して、Cassandraに接続する必要があります。同じジョブに複数のtCassandraConfigurationコンポーネントが存在すると、ジョブの実行が失敗します。 このコンポーネントは、所属するSpark Batchのコンポーネントのパレットと共に、Spark Batchジョブを作成している場合にだけ表示されます。 特に明記していない限り、このドキュメントのシナリオでは、標準ジョブ、つまり従来の Talend データ統合ジョブだけを扱います。 |
[Spark Connection] (Spark接続) |
[Run] (実行)ビューの[Spark configuration] (Spark設定)タブで、ジョブ全体でのSparkクラスターへの接続を定義します。また、ジョブでは、依存jarファイルを実行することを想定しているため、Sparkがこれらのjarファイルにアクセスできるように、これらのファイルの転送先にするファイルシステム内のディレクトリーを指定する必要があります。
この接続は、ジョブごとに有効になります。 |