Ajouter des propriétés spécifiques S3 pour accéder au système S3 depuis Databricks
Ajoutez des propriétés spécifiques S3 à la configuration Spark de votre cluster Databricks sur AWS.
Avant de commencer
- Assurez-vous que votre cluster Spark dans Databricks a bien été créé, qu'il est en cours d'exécution et que sa version est 3.5 LTS. Pour plus d'informations, consultez Create Databricks workspace dans la documentation Databricks (en anglais).
- Vous avez un compte AWS.
- Le bucket S3 utilisé a bien été créé et vous disposez des autorisations suffisantes pour y accéder.
- Lorsque vous utilisez un composant d'apprentissage automatique (Machine Learning) ou un tMatchPredict, vous avez configuré le paramètre Databricks Runtime Version à X.X LTS ML.