tJDBCOutput MapReduceプロパティ(非推奨)
これらのプロパティは、MapReduceジョブのフレームワークで実行されているtJDBCOutputを設定するために使われます。
tJDBCOutput tJDBCOutputコンポーネントは、MapReduceファミリーとデータベースファミリーに属しています。
このフレームワーク内のコンポーネントは、ビッグデータ対応のTalend 製品すべて、およびTalend Data Fabricで使用できます。
MapReduceのフレームワークは、Talend 7.3以降非推奨となります。Apache SparkのTalendジョブを使って、インテグレーションタスクを実行します。基本設定
[Property type] (プロパティタイプ) |
[Built-in] (組み込み)と[Repository] (リポジトリー)のいずれかです。 |
|
[Built-In] (組み込み): 一元的に保存されるプロパティデータはありません。 |
|
[Repository] (リポジトリー): プロパティが保存されているリポジトリーファイルを選択します。 |
このアイコンをクリックすると、データベース接続ウィザードが開き、コンポーネント[Basic settings] (基本設定)ビューに設定したデータベース接続パラメーターが保存されます。 データベース接続パラメーターの設定と保管の詳細は、Talend Studioユーザーガイドをご覧ください。 |
|
JDBC URL |
使用するデータベースのJDBC URL。たとえば、Amazon RedshiftデータベースのJDBC URLはjdbc:redshift://endpoint:port/databaseです。 |
[Driver JAR] (ドライバーJAR) |
必要なドライバーJARをロードするには、このテーブルに記入してください。これを行うには、テーブルの下の[+]ボタンをクリックして、必要に応じてドライバーJAR用行数を増やします。セルを選択し、セルの右側にある[...]ボタンをクリックして、[Module] (モジュール)ダイアログボックスを開くと使用するドライバーJARを選択できます。たとえば、RedshiftデータベースのドライバーjarはRedshiftJDBC41-1.1.13.1013.jarです。 詳細は、[Importing a database driver] (データベースドライバのインポート) (英語のみ)をご覧ください。 |
クラス名 |
指定したドライバーのクラス名を二重引用符で囲んで入力します。たとえば、RedshiftJDBC41-1.1.13.1013.jarドライバーの場合、入力する名前はcom.amazon.redshift.jdbc41.Driverになります。 |
Username (ユーザー名)とPassword (パスワード) |
接続するデータベースに対する認証情報を入力します。 パスワードを入力するには、パスワードフィールドの横にある[...]ボタンをクリックし、ポップアップダイアログボックスにパスワードを二重引用符の間に入力し、OKをクリックして設定を保存します。 |
テーブル名 |
書き込まれるテーブルの名前。一度に書き込みができるテーブルは1つだけです。 |
[Schema] (スキーマ)と[Edit schema] (スキーマを編集) |
スキーマとは行の説明のことです。処理して次のコンポーネントに渡すフィールド(カラム)数を定義します。Sparkジョブを作成する場合、フィールドの命名時は予約語のlineを避けます。 |
[Built-in] (組み込み): そのコンポーネントに対してのみスキーマを作成し、ローカルに保管します。 |
|
|
[Repository] (リポジトリー): スキーマは作成済みで、リポジトリーに保管されています。さまざまなプロジェクトやジョブデザインで再利用できます。 |
詳細設定
[Use Batch Size] (バッチサイズを使用) |
選択すると、処理される各バッチの行数を定義できます。 |
使用方法
使用ルール |
Talend Map/Reduceジョブでは終了コンポーネントとして使用され、入力リンクとして変換コンポーネントが必要になります。一緒に使用される他のコンポーネントもMap/Reduceのコンポーネントでなければなりません。Hadoopで直接実行できるネイティブMap/Reduceコードを生成します。 このコンポーネントおよびそのMapReduceファミリーは Map/Reduceジョブを作成している場合に限り表示されます。 本書では、特に明記されていない限り、標準ジョブ、つまり従来の Talend データ統合ジョブ、およびMap/Reduce以外のジョブのシナリオで説明しています。 |
[Hadoop Connection] (Hadoop接続) |
[Run] (実行)ビューの[Hadoop Configuration] (Hadoop設定)タブを使用して、ジョブ全体で特定のHadoopディストリビューションに対する接続を定義する必要があります。 この接続は、ジョブごとに有効になります。 |
制限事項 |
このコンポーネントのMap/Reduceバージョンとともに以下のデータベースを使用することを推奨します: DB2、Informix、MSSQL、MySQL、Netezza、Oracle、Postgres、Teradata、Vertica。 他のデータベースでも機能する可能性はありますが、それらは必ずしもテスト済みとは限りません。 |