Apache Spark StreamingのtKafkaOutputプロパティ
これらのプロパティは、Spark Streamingジョブのフレームワークで実行されているtKafkaOutputを設定するために使われます。
Spark StreamingのtKafkaOutputコンポーネントは、メッセージングファミリーに属しています。
このコンポーネントはTalend Real-Time Big Data PlatformとTalend Data Fabricで利用できます。
基本設定
[Schema] (スキーマ)と[Edit schema] (スキーマを編集) |
スキーマとは行の説明のことです。処理して次のコンポーネントに渡すフィールド(カラム)数を定義します。Sparkジョブを作成する場合、フィールドの命名時は予約語のlineを避けます。 このコンポーネントのスキーマは読み取り専用です。公開するメッセージを保管します。 |
[Broker list] (ブローカーリスト) |
使用するKafkaクラスターのブローカーノードのアドレスを入力します。 このアドレスの形式はhostname:portです。この情報は、このKafkaクラスター内のホスティングノードの名前とポートです。 複数のアドレスを指定する必要がある場合は、コンマ(,)で区切ります。 |
[Topic name] (トピック名) |
メッセージを公開するトピックの名前を入力します。このトピックは既に存在している必要があります。 |
[Partition] (パーティション) |
トピックから使用するパーティション番号を入力します。 情報メモ注: このフィールドを空白のままにすると、パーティションがランダムに選択されます。
|
[Key] (キー) |
トピックから使用するキーの名前を入力します。 情報メモ注: このフィールドを空白のままにすると、使用されるキーはnullキーになります。
|
[Compress the data] (データを圧縮) |
[Compress the data] (データの圧縮)チェックボックスをオンにすると、出力データが圧縮されます。 |
詳細設定
[Kafka properties] (Kafkaのプロパティ) |
カスタマイズする必要がある新しいKafkaプロデューサープロパティをこのテーブルに追加します。 このテーブルで定義できる新しいプロデューサーのプロパティに関する詳細は、Kafkaの公式ドキュメンテーションで新しいプロデューサーの設定を説明しているセクションをご覧ください。 |
[Connection pool] (接続プール) |
このエリアでは、各Sparkエグゼキューターに、同時に開いたままにする接続の数を制御するための接続プールを設定するために使われます。以下の接続プールパラメーターに与えられているデフォルト値は、ほとんどのユースケースでそのまま利用できます。
|
[Evict connections] (接続を無効化) |
このチェックボックスを選択すると、接続プール内の接続を破棄する条件を定義できます。オンにすると、以下のフィールドが表示されます。
|
使用方法
使用ルール |
このコンポーネントは、終了コンポーネントとして使用され、入力リンクを必要とします。 このコンポーネントがシリアライズされたデータを送信するには、入力スキーマにserializedValueカラムを定義するためにtWriteJSONFieldなどの書き込みコンポーネントを必要とします。 このコンポーネントは、所属するSpark Streamingのコンポーネントのパレットと共に、Spark Streamingジョブを作成している場合にだけ表示されます。 特に明記していない限り、このドキュメンテーションのシナリオでは、標準ジョブ、つまり従来の Talend Data Integrationジョブだけを扱います。 |
[Spark Connection] (Spark接続) |
[Run] (実行)ビューの[Spark configuration] (Spark設定)タブで、ジョブ全体でのSparkクラスターへの接続を定義します。また、ジョブでは、依存jarファイルを実行することを想定しているため、Sparkがこれらのjarファイルにアクセスできるように、これらのファイルの転送先にするファイルシステム内のディレクトリーを指定する必要があります。
この接続は、ジョブごとに有効になります。 |