メイン コンテンツをスキップする

Sparkを使ってAzure Data Lake Storageからデータの書き込みと読み取りを行う(Azure Databricks)

このシナリオでは、tAzureFSConfigurationを使ってSpark Batchジョブを作成し、Parquetコマンドを使ってデータをAzure Data Lake Storageに書き込み、Azureからデータを読み取ります。

このシナリオは、サブスクリプションベースのビッグデータ対応のTalend製品にのみ適用されます。

読み取られたサンプルデータは次のとおりです。
01;ychen

このデータには、ユーザー名とこのユーザーに配布されたID番号が含まれています。

サンプルデータはあくまでも例示用です。

このページは役に立ちましたか?

このページまたはコンテンツにタイポ、ステップの省略、技術的エラーなどの問題が見つかった場合はお知らせください。