Accéder au contenu principal Passer au contenu complémentaire

Configurer la connexion au service S3 à utiliser dans Spark

Procédure

  1. Double-cliquez sur le tS3Configuration pour ouvrir sa vue Component.
    Spark utilise ce composant pour se connecter au système S3 dans lequel votre Job écrit les données métier. Si vous n'utilisez pas un composant tS3Configuration ou tout autre composant qui supporte Databricks sur AWS, ces données métier sont écrites dans le Databricks Filesystem (DBFS).

    Exemple

  2. Dans les champs Access key et Secret key, saisissez les clés à utiliser pour s'authentifier dans S3.
  3. Dans le champ Bucket name, saisissez le nom du bucket et du dossier dans ce bucket à utiliser pour stocker les données métier, par exemple, mybucket/myfolder. Le dossier est créé à la volée s'il n'existe pas, mais le bucket doit déjà exister à l'exécution.

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – faites-le-nous savoir.