Apache Spark StreamingのtCassandraLookInputプロパティ
これらのプロパティは、Spark Streamingジョブのフレームワークで実行されているtCassandraLookInputを設定するために使われます。
Spark StreamingのtCassandraLookInputコンポーネントは、データベースファミリーに属しています。
このコンポーネントのストリーミングバージョンは、Talend Real Time Big Data PlatformおよびTalend Data Fabricで利用できます。
基本設定
[Property type] (プロパティタイプ) |
[Built-in] (組み込み)と[Repository] (リポジトリー)のいずれかです。 [Built-In] (組み込み): 一元的に保存されるプロパティデータはありません。 [Repository] (リポジトリー): プロパティが保存されているリポジトリーファイルを選択します。 |
[DB Version] (DBバージョン) |
使用するCassandraバージョンを選択します。 |
[Host] (ホスト) |
Cassandraサーバーのホスト名またはIPアドレス。 |
[Port] (ポート) |
Cassandraサーバーのリスニングポート番号。 |
[Required authentication] (必要な認証) |
このチェックボックスをオンにすると、Cassandra認証の認証情報が提供されます。 |
[Username] (ユーザー名) |
このフィールドにCassandra認証のユーザー名を入力します。 |
[Password] (パスワード) |
このフィールドにCassandra認証のパスワードを入力します。 パスワードを入力するには、パスワードフィールドの横にある[...]ボタンをクリックし、ポップアップダイアログボックスにパスワードを二重引用符の間に入力し、OKをクリックして設定を保存します。 |
[Schema] (スキーマ)と[Edit Schema] (スキーマを編集) |
スキーマとは行の説明のことです。処理して次のコンポーネントに渡すフィールド(カラム)数を定義します。Sparkジョブを作成する場合、フィールドの命名時は予約語のlineを避けます。 スキーマを変更するには[Edit schema] (スキーマを編集)をクリックします。現在のスキーマがリポジトリータイプの場合は、3つのオプションを利用できます。
このコンポーネントのスキーマは、オブジェクトタイプとリストタイプに対応していません。 |
[Keyspace] |
データを読み取るキースペースの名前を入力します。 |
[Column family] (カラムファミリー) |
データを読み取るカラムファミリーの名前を入力します。 |
[Query type] (クエリータイプ)と[Query] (クエリー) |
クエリーを入力します。フィールドの順序に気を付けて、スキーマ定義と一致するようにしてください。 クエリーの結果には、tMapで使用する結合キーに一致するレコードのみ含まれていなければなりません。言い換えれば、一致するレコードのみがルックアップフローに読み取られるSQLステートメントを作成するため、メインフローのスキーマをtMapで使用する必要があります。 この方式では、重複レコードはメモリに読み取られず、後続のコンポーネントに出力されます。 |
詳細設定
[Connection pool] (接続プール) |
このエリアでは、各Sparkエグゼキューターに、同時に開いたままにする接続の数を制御するための接続プールを設定するために使われます。以下の接続プールパラメーターに与えられているデフォルト値は、ほとんどのユースケースでそのまま利用できます。
|
[Evict connections] (接続を無効化) |
接続プール内の接続を破棄する条件を定義する場合は、このチェックボックスを選択します。オンにすると、以下のフィールドが表示されます。
|
使用方法
使用ルール |
このコンポーネントは、開始コンポーネントとして使用され、出力リンクを必要とします。 このコンポーネントでは、同じジョブに存在するtCassandraConfigurationコンポーネントを1つのみ使用して、Cassandraに接続する必要があります。同じジョブに複数のtCassandraConfigurationコンポーネントが存在すると、ジョブの実行が失敗します。 このコンポーネントは、所属するSpark Streamingのコンポーネントのパレットと共に、Spark Streamingジョブを作成している場合にだけ表示されます。 特に明記していない限り、このドキュメントのシナリオでは、標準ジョブ、つまり従来の Talend データ統合ジョブだけを扱います。 |
[Spark Connection] (Spark接続) |
[Run] (実行)ビューの[Spark configuration] (Spark設定)タブで、ジョブ全体でのSparkクラスターへの接続を定義します。また、ジョブでは、依存jarファイルを実行することを想定しているため、Sparkがこれらのjarファイルにアクセスできるように、これらのファイルの転送先にするファイルシステム内のディレクトリーを指定する必要があります。
この接続は、ジョブごとに有効になります。 |