Ajouter des propriétés spécifiques S3 pour accéder au système S3 depuis Databricks
Ajoutez des propriétés spécifiques S3 à la configuration Spark de votre cluster Databricks sur AWS.
Avant de commencer
- Assurez-vous que votre cluster Spark dans Databricks a bien été créé, qu'il est en cours d'exécution et que sa version est 3.5 LTS. Pour plus d'informations, consultez Create Databricks workspace (uniquement en anglais) dans la documentation Databricks (en anglais).
- Vous avez un compte AWS.
- Le bucket S3 utilisé a bien été créé et vous disposez des autorisations suffisantes pour y accéder.