ジョブを変換
標準からSparkへといったように、ジョブを別のフレームワークからの変換によって作成できます。
ソースジョブで使用しているコンポーネントをターゲットジョブにも使用できる場合は、このオプションをお勧めします。たとえば、標準ジョブをSpark Batchジョブに変換する必要があるとします。
手順
タスクの結果
変換済みのジョブが[Big Data Batch] (ビッグデータバッチ)ノードの下に表示されます。
コンテキストメニューから[Duplicate] (重複)オプションを選択して変換にアクセスすることも可能です。このアプローチを使うと、ソースジョブを元のフレームワークと共に保持する一方で、重複ジョブをターゲットフレームワークに作成できます。
また、Sparkジョブからこの手順を繰り返し、標準ジョブまたは別のフレームワークに変換することもできます。その場合は、コンテキストメニューから[Edit Big Data Batch properties] (ビッグデータバッチプロパティの編集)を選択します。
リポジトリーで定義したHadoopへの接続を標準ジョブで使用している場合は、[Finish] (終了)ボタンをクリックすると[Select node] (ノードの選択)ウィザードが表示され、その接続を選択してSparkジョブで自動的にその接続を再利用できます。
このウィザードに表示されるコンポーネントは、ソースの標準ジョブで使用されているものです。それを選択すると、作成しているSparkジョブでもHadoopの接続メタデータが再利用されます。