Apache Spark BatchのtMongoDBOutputプロパティ
これらのプロパティは、Spark Batchジョブのフレームワークで実行されているtMongoDBOutputを設定するために使われます。
Spark BatchのtMongoDBOutputコンポーネントは、データベースファミリーに属しています。
このフレームワークのコンポーネントは、すべてのサブスクリプションベースのビッグデータ対応のTalend製品およびTalend Data Fabricで使用できます。
基本設定
[Property type] (プロパティタイプ) |
[Built-in] (組み込み)と[Repository] (リポジトリー)のいずれかです。 [Built-In] (組み込み): 一元的に保存されるプロパティデータはありません。 [Repository] (リポジトリー): プロパティが保存されているリポジトリーファイルを選択します。 |
[MongoDB configuration] (MongoDB設定) |
定義済みの接続の詳細を再利用する場合は、このチェックボックスを選択して、[Component List] (コンポーネントリスト)ドロップダウンリストから、目的の接続コンポーネントを選択します。 |
[Schema] (スキーマ)と[Edit Schema] (スキーマを編集) |
スキーマとは行の説明のことです。処理して次のコンポーネントに渡すフィールド(カラム)数を定義します。Sparkジョブを作成する場合、フィールドの命名時は予約語のlineを避けます。 スキーマを変更するには[Edit schema] (スキーマを編集)をクリックします。現在のスキーマがリポジトリータイプの場合は、3つのオプションを利用できます。
データベースのカラムがJSONドキュメントで、ドキュメント全体を読み取る必要がある場合は、引用符を使用せずに[DB column] (DBカラム)内でアスタリスク(*)を付けます。 |
[Collection] (コレクション) |
使用するコレクションの名前を入力します。 MongoDBコレクションはRDBMSテーブルと同等であり、そこにはドキュメントが含まれています。 |
[Set write concern] (書き込み確認の設定) |
このチェックボックスを選択すると、書き込み操作で要求される確認レスポンスのレベルを設定できます。この操作のレベルを選択する必要があります。 詳細は、http://docs.mongodb.org/manual/core/write-concern/で、関連するMongoDBのドキュメンテーションをご覧ください。 |
[Action on data] (データでのアクション) |
以下の操作を実行できます:
|
[Mapping] (マッピング) |
このコンポーネント用に定義されたスキーマの各カラムは、読み取るドキュメントのフィールドを表します。このテーブルで、これらのフィールドの親ノードがあればそれを指定する必要があります。 たとえば、次のようなドキュメントがあるとします。
{ _id: ObjectId("5099803df3f4948bd2f98391"), person: { first: "Joe", last: "Walker" } }フィールドfirstおよびlastには親ノードpersonがありますが、_idフィールドには親ノードがありません。したがって、完了すると、この[Mapping]テーブルは次のようになります。 Column Parent node path _id first "person" last "person" |
詳細設定
[Advanced Hadoop MongoDB properties] (高度なHadoop MongoDBのプロパティ) |
プロパティを追加して、tMongoDBOutputにデータの書き込み時に実行させる追加のオペレーションを定義します。 使用可能なプロパティは、MongoDB Connector for Hadoopにリスト表示され、説明されています。 |
使用方法
使用ルール |
このコンポーネントは、終了コンポーネントとして使用され、入力リンクを必要とします。 このコンポーネントは、MongoDBデータベースに接続するために同じジョブ内にあるtMongoDBConfigurationコンポーネントを使用する必要があります。tMongoDBConfigurationを使用するには、このコンポーネントと共にtMongoDBConfigurationコンポーネントをドロップし、このコンポーネントの[Basic settings] (基本設定)を指定する必要があります。 このコンポーネントは、所属するSpark Batchのコンポーネントのパレットと共に、Spark Batchジョブを作成している場合にだけ表示されます。 特に明記していない限り、このドキュメンテーションのシナリオでは、標準ジョブ、つまり従来の Talend Data Integrationジョブだけを扱います。 |
[Spark Connection] (Spark接続) |
[Run] (実行)ビューの[Spark configuration] (Spark設定)タブで、ジョブ全体でのSparkクラスターへの接続を定義します。また、ジョブでは、依存jarファイルを実行することを想定しているため、Sparkがこれらのjarファイルにアクセスできるように、これらのファイルの転送先にするファイルシステム内のディレクトリーを指定する必要があります。
この接続は、ジョブごとに有効になります。 |