tJDBCInput MapReduceプロパティ(非推奨)
これらのプロパティは、MapReduceジョブのフレームワークで実行されているtJDBCInputを設定するために使われます。
MapReduce tJDBCInputコンポーネントは、MapReduceファミリーに属しています。
このフレームワーク内のコンポーネントは、ビッグデータ対応のTalend 製品すべて、およびTalend Data Fabricで使用できます。
MapReduceのフレームワークは、Talend 7.3以降非推奨となります。Apache SparkのTalendジョブを使って、インテグレーションタスクを実行します。基本設定
| 
                   [Property type] (プロパティタイプ)  | 
               
                   [Built-in] (組み込み)と[Repository] (リポジトリー)のいずれかです。  | 
            
| 
                   
  | 
               
                   [Built-In] (組み込み): 一元的に保存されるプロパティデータはありません。  | 
            
| 
                   
  | 
               
                   [Repository] (リポジトリー): プロパティが保存されているリポジトリーファイルを選択します。  | 
            
| 
                   | 
               
                   このアイコンをクリックすると、データベース接続ウィザードが開き、コンポーネント[Basic settings] (基本設定)ビューに設定したデータベース接続パラメーターが保存されます。 データベース接続パラメーターの設定と保管の詳細は、Talend Studioユーザーガイドをご覧ください。  | 
            
| 
                   JDBC URL  | 
               
                   使用するデータベースのJDBC URL。たとえば、Amazon RedshiftデータベースのJDBC URLはjdbc:redshift://endpoint:port/databaseです。  | 
            
| 
                   [Driver JAR] (ドライバーJAR)  | 
               
                   必要なドライバーJARをロードするには、このテーブルに記入してください。これを行うには、テーブルの下の[+]ボタンをクリックして、必要に応じてドライバーJAR用行数を増やします。セルを選択し、セルの右側にある[...]ボタンをクリックして、[Module] (モジュール)ダイアログボックスを開くと使用するドライバーJARを選択できます。たとえば、RedshiftデータベースのドライバーjarはRedshiftJDBC41-1.1.13.1013.jarです。 詳細は、[Importing a database driver] (データベースドライバのインポート) (英語のみ)をご覧ください。  | 
            
| 
                   クラス名  | 
               
                   指定したドライバーのクラス名を二重引用符で囲んで入力します。たとえば、RedshiftJDBC41-1.1.13.1013.jarドライバーの場合、入力する名前はcom.amazon.redshift.jdbc41.Driverになります。  | 
            
| 
                   Username (ユーザー名)とPassword (パスワード)  | 
               
                   使用するデータベースのJDBC URL。たとえば、Amazon RedshiftデータベースのJDBC URLはjdbc:redshift://endpoint:port/databaseです。 パスワードを入力するには、パスワードフィールドの横にある[...]ボタンをクリックし、ポップアップダイアログボックスにパスワードを二重引用符の間に入力し、OKをクリックして設定を保存します。  | 
            
| 
                   [Schema] (スキーマ)と[Edit schema] (スキーマを編集)  | 
               
                   スキーマとは行の説明のことです。処理して次のコンポーネントに渡すフィールド(カラム)数を定義します。Sparkジョブを作成する場合、フィールドの命名時は予約語のlineを避けます。  | 
            
| 
                   
  | 
               
                   [Built-in] (組み込み): そのコンポーネントに対してのみスキーマを作成し、ローカルに保管します。  | 
            
| 
                   
  | 
               
                   [Repository] (リポジトリー): スキーマは作成済みで、リポジトリーに保管されています。さまざまなプロジェクトやジョブデザインで再利用できます。  | 
            
| 
                   スキーマを変更するには[Edit schema] (スキーマを編集)をクリックします。現在のスキーマがリポジトリータイプの場合は、3つのオプションを利用できます。 
  | 
            |
| 
                   [Table Name] (テーブル名)  | 
               
                   データを読み取るテーブルの名前を入力します。  | 
            
| 
                   [Die on error] (エラー発生時に強制終了)  | 
               
                   このチェックボックスを選択すると、エラー発生時にジョブの実行が停止されます。 エラーの発生した行をスキップし、エラーが発生していない行の処理を完了するには、このチェックボックスをオフにします。エラーをスキップしたら、[Row] (行)> [Reject] (リジェクト)リンクを使用してエラーの発生した行を収集できます。  | 
            
| 
                   [Query Type] (クエリータイプ)および[Query] (クエリー)  | 
               
                   スキーマ定義に対応する必要がある、フィールドの適切な順序に特に注意を払うデータベースクエリーステートメントを指定します。 ダイナミックスキーマ機能を使用する場合、SELECTクエリーには、選択したテーブルからすべてのカラムを取得するため*ワイルドカードを含める必要があります。  | 
            
使用方法
| 
                   使用ルール  | 
               
                   Talend Map/Reduceジョブでは開始コンポーネントとして使用され、出力リンクとして変換コンポーネントが必要になります。一緒に使用される他のコンポーネントもMap/Reduceのコンポーネントでなければなりません。Hadoopで直接実行できるネイティブMap/Reduceコードを生成します。 Talend Map/Reduceジョブの詳細は、Talend Big Data入門ガイドでTalend Map/Reduceジョブを作成、変換、設定する方法のセクションをご覧ください 。 本書では、特に明記されていない限り、標準ジョブ、つまり従来の Talend データ統合ジョブ、およびMap/Reduce以外のジョブのシナリオで説明しています。  | 
            
| 
                   [Hadoop Connection] (Hadoop接続)  | 
               
                   [Run] (実行)ビューの[Hadoop Configuration] (Hadoop設定)タブを使用して、ジョブ全体で特定のHadoopディストリビューションに対する接続を定義する必要があります。 この接続は、ジョブごとに有効になります。  | 
            
| 
                   制限事項  | 
               
                   このコンポーネントのMap/Reduceバージョンとともに以下のデータベースを使用することを推奨します: DB2、Informix、MSSQL、MySQL、Netezza、Oracle、Postgres、Teradata、Vertica。 他のデータベースでも機能する可能性はありますが、それらは必ずしもテスト済みとは限りません。  |