Apache Spark BatchのtJDBCConfigurationプロパティ
これらのプロパティは、Spark Batchジョブのフレームワークで実行されているtJDBCConfigurationを設定するために使われます。
Spark BatchのtJDBCConfigurationコンポーネントは、ストレージファミリーとデータベースファミリーに属しています。
このフレームワーク内のコンポーネントは、ビッグデータ対応のTalend 製品すべて、およびTalend Data Fabricで使用できます。
基本設定
[Property type] (プロパティタイプ) |
[Built-in] (組み込み)と[Repository] (リポジトリー)のいずれかです。 [Built-In] (組み込み): 一元的に保存されるプロパティデータはありません。 [Repository] (リポジトリー): プロパティが保存されているリポジトリーファイルを選択します。 |
JDBC URL |
使用するデータベースのJDBC URL。たとえば、Amazon RedshiftデータベースのJDBC URLはjdbc:redshift://endpoint:port/databaseです。
|
[Driver JAR] (ドライバーJAR) |
必要なドライバーJARをロードするには、このテーブルに記入してください。これを行うには、テーブルの下の[+]ボタンをクリックして、必要に応じてドライバーJAR用行数を増やします。セルを選択し、セルの右側にある[...]ボタンをクリックして、[Module] (モジュール)ダイアログボックスを開くと使用するドライバーJARを選択できます。たとえば、RedshiftデータベースのドライバーjarはRedshiftJDBC41-1.1.13.1013.jarです。 詳細は、[Importing a database driver] (データベースドライバのインポート) (英語のみ)をご覧ください。 |
ドライバークラス |
指定したドライバーのクラス名を二重引用符で囲んで入力します。たとえば、RedshiftJDBC41-1.1.13.1013.jarドライバーの場合、入力する名前はcom.amazon.redshift.jdbc41.Driverになります。 |
Username (ユーザー名)とPassword (パスワード) |
接続するデータベースに対する認証情報を入力します。 パスワードを入力するには、パスワードフィールドの横にある[...]ボタンをクリックし、ポップアップダイアログボックスにパスワードを二重引用符の間に入力し、OKをクリックして設定を保存します。 Databricksを使用している場合は、トークンを[Username] (ユーザー名)フィールドに入力し、[Password] (パスワード)フィールドにDatabricksトークンを入力します。このトークンは、Databricksユーザーアカウント用に生成された認証トークンです。このトークンは、Databricksワークスペースの[User settings] (ユーザー設定)ページで生成または検索できます。詳細は、AzureのドキュメンテーションでToken management (英語のみ)をご覧ください。 Spark V1.4以降でのみ利用できます。 |
[Additional JDBC parameters] (追加のJDBCパラメーター) |
作成するデータベース接続に接続の追加プロパティを指定します。プロパティはセミコロンで区切られ、各プロパティはキー-値ペアです。たとえば、encryption=1;clientname=Talendになります。 このフィールドは、[Use an existing connection] (既存の接続を使用)チェックボックスがオンになっている場合は利用できません。 |
詳細設定
[Connection pool] (接続プール) |
このエリアでは、各Sparkエグゼキューターに、同時に開いたままにする接続の数を制御するための接続プールを設定するために使われます。以下の接続プールパラメーターに与えられているデフォルト値は、ほとんどのユースケースでそのまま利用できます。
|
[Evict connections] (接続を無効化) |
接続プール内の接続を破棄する条件を定義する場合は、このチェックボックスを選択します。オンにすると、以下のフィールドが表示されます。
|
使用方法
使用ルール |
このコンポーネントは、他のコンポーネントに接続せずに使用されます。 tJDBCConfigurationコンポーネントの設定は、同じジョブ内のJDBC関連のコンポーネントにのみ適用されます。つまり、tRunJobで呼び出される子ジョブまたは親ジョブで使用されるJDBCのコンポーネントは、この設定を再利用できません。 |
[Spark Connection] (Spark接続) |
[Run] (実行)ビューの[Spark configuration] (Spark設定)タブで、ジョブ全体でのSparkクラスターへの接続を定義します。また、ジョブでは、依存jarファイルを実行することを想定しているため、Sparkがこれらのjarファイルにアクセスできるように、これらのファイルの転送先にするファイルシステム内のディレクトリーを指定する必要があります。
この接続は、ジョブごとに有効になります。 |