メイン コンテンツをスキップする 補完的コンテンツへスキップ

AWSでS3とDatabricksを使ってジョブのデータフローを設計

手順

  1. Studioの Integration パースペクティブで、[Repository] (リポジトリー)ツリービューの[Job Designs] (ジョブデザイン)ノードから空のSpark Batchジョブを1つ作成します。
  2. ワークスペース内に使用するコンポーネントの名前を入力し、表示されるリストからこのコンポーネントを選択します。このシナリオでは、コンポーネントは、tS3ConfigurationtFixedFlowInputtFileOutputParquettFileInputParquettLogRowです。
    tFixedFlowInputコンポーネントは、サンプルデータをデータフローにロードするために使われます。実際には、ファイル入力コンポーネントと処理コンポーネントを使って、処理するデータを準備する高度なプロセスを設計できます。
  3. [Row] (行) > [Main] (メイン)リンクを使って、tFixedFlowInputtFileOutputParquetに接続させます。
  4. [Row] (行) > [Main] (メイン)リンクを使って、tFileInputParquettLogRowに接続させます。
  5. [Trigger] (トリガー) > OnSubjobOkリンクを使ってtFixedFlowInputtFileInputParquetに接続します。
  6. tS3Configurationコンポーネントは、接続しないでおきます。

このページは役に立ちましたか?

このページまたはコンテンツにタイポ、ステップの省略、技術的エラーなどの問題が見つかった場合はお知らせください。