メイン コンテンツをスキップする 補完的コンテンツへスキップ

Sparkで使われるAzure Data Lake Storageサービスへの接続を設定

手順

  1. tAzureFSConfigurationをダブルクリックして、その[Component] (コンポーネント) ビューを開きます。
    Sparkはこのコンポーネントを使って、ジョブが実際のビジネスデータを書き込むAzure Data Lake Storageシステムに接続させます。
  2. Azure FileSystemドロップダウン リストから、Azure Datalake Storageを選択して、Data Lake Storage を使用するターゲット システムとして使用します。
  3. [Datalake ストレージ アカウント]フィールドには、アクセスする必要がある Data Lake ストレージ アカウントの名前を入力します。
    システムの管理者がAzureアカウントにこのDataLakeStorageアカウントへの適切なアクセス許可を付与していることをご確認ください。
  4. [Client ID] (クライアントID)フィールドと[Client key] (クライアントキー)フィールドに、開発中である現行のジョブがAzure Data Lake Storageへのアクセスに使うアプリケーションを登録する際に生成された認証IDと認証キーをそれぞれ入力します。

    使用するアプリケーションにAzure Data Lakeへのアクセス権があることを確認します。Azureでこのアプリケーションの[Required permissions] (必要な権限)ビューをチェックしてください。詳細は、AzureのドキュメンテーションであるAssign the Azure AD application to the Azure Data Lake Storage account file or folder (英語のみ)をご覧ください。

    このアプリケーションは、前のステップでAzure Data Lake Storageへのアクセス権を割り当てたアプリケーションである必要があります。

  5. [Token endpoint] (トークンエンドポイント)フィールドで、Azureポータルの[App registrations] (アプリの登録)ページの[Endpoints] (エンドポイント)リストから取得できるOAuth 2.0トークンエンドポイントをコピーして貼り付けます。

このページは役に立ちましたか?

このページまたはコンテンツにタイポ、ステップの省略、技術的エラーなどの問題が見つかった場合はお知らせください。