Ajouter des propriétés spécifiques à Azure pour accéder au système de stockage depuis Databricks
Ajoutez des propriétés spécifiques à Azure à la configuration Spark de votre cluster Databricks, pour qu'il puisse accéder à Azure Storage.
Cette procédure est nécessaire uniquement lorsque vous souhaitez que vos Jobs Talend pour Apache Spark utilisent Azure Blob Storage ou Azure Data Lake Storage avec Databricks.
Avant de commencer
-
Assurez-vous que votre cluster Spark dans Databricks a bien été créé, qu'il est en cours d'exécution et que sa version est supportée par le Studio. Si vous utilisez Azure Data Lake Storage Gen 2, seule Databricks 5.4 est supportée.
Pour plus d'informations, consultez Créer un espace de travail Azure Databricks (uniquement en anglais) dans la documentation Azure.
- Vous devez avoir un compte Azure.
- Le service Azure Blob Storage ou Azure Data Lake Storage à utiliser doit avoir été créé et vous devez avoir les autorisations adéquates pour y accéder. Pour plus d'informations concernant Azure Storage, consultez Didacticiels pas à pas (uniquement en anglais) dans la documentation Azure.