Apache Spark BatchのtKuduInputプロパティ
これらのプロパティは、Spark Batchジョブのフレームワークで実行されているtKuduInputを設定するために使われます。
Spark BatchのtKuduInputコンポーネントは、データベースファミリーに属しています。
このフレームワークのコンポーネントは、すべてのサブスクリプションベースのビッグデータ対応のTalend製品およびTalend Data Fabricで使用できます。
基本設定
[Use an existing configuration] (既存の設定を使用) |
定義済みの接続の詳細を再利用する場合は、このチェックボックスを選択して、[Component List] (コンポーネントリスト)ドロップダウンリストから、目的の接続コンポーネントを選択します。 |
[Server connection] (サーバー接続) |
[+]ボタンをクリックして、使う必要があるKuduマスターと同じ数の行を追加します。各行はマスター用です。 次に、使うKuduサービスのマスターノードの場所とリスニングポートを入力します。 このコンポーネントは、ClouderaにインストールされたApache Kuduサービスのみをサポートします。 Apache KuduとClouderaの間の互換性情報については、Clouderaの関連ドキュメンテーション(Compatibility Matrix for Apache Kudu)をご覧ください。 |
[Schema] (スキーマ)と[Edit schema] (スキーマを編集) |
スキーマとは行の説明のことです。処理して次のコンポーネントに渡すフィールド(カラム)数を定義します。Sparkジョブを作成する場合、フィールドの命名時は予約語のlineを避けます。
|
スキーマを変更するには[Edit schema] (スキーマを編集)をクリックします。現在のスキーマがリポジトリータイプの場合は、3つのオプションを利用できます。
|
|
[Kudu table] (Kuduテーブル) |
データを読み取るテーブルの名前を指定します。 |
[Query mode] (クエリーモード) |
テーブルからデータを読み取るために使うモードを選択します。
|
詳細設定
[Limit] (制限) |
二重引用符なしで、スキャンまたはKuduテーブルのクエリーの後に表示する行数を入力します。 この数は、実際にスキャンまたは照会される行数を変更しません。 |
使用方法
使用ルール |
このコンポーネントは、開始コンポーネントとして使用され、出力リンクを必要とします。 |
[Spark Connection] (Spark接続) |
[Run] (実行)ビューの[Spark configuration] (Spark設定)タブで、ジョブ全体でのSparkクラスターへの接続を定義します。また、ジョブでは、依存jarファイルを実行することを想定しているため、Sparkがこれらのjarファイルにアクセスできるように、これらのファイルの転送先にするファイルシステム内のディレクトリーを指定する必要があります。
この接続は、ジョブごとに有効になります。 |