Ajouter des propriétés spécifiques à Azure pour accéder au système de stockage depuis Databricks
Ajoutez des propriétés spécifiques à Azure à la configuration Spark de votre cluster Databricks, pour qu'il puisse accéder à Azure Storage.
Cette procédure est nécessaire uniquement lorsque vous souhaitez que vos Jobs Talend pour Apache Spark utilisent Azure Blob Storage ou Azure Data Lake Storage avec Databricks.
Avant de commencer
-
Assurez-vous que votre cluster Spark dans Databricks a bien été créé, qu'il est en cours d'exécution et que sa version est supportée par le Studio Talend. Si vous utilisez Azure Data Lake Storage Gen 2, seule Databricks 5.4 est supportée.
Pour plus d'informations, consultez Créer un espace de travail Azure Databricks dans la documentation Azure.
- Vous devez avoir un compte Azure.
- Le service Azure Blob Storage ou Azure Data Lake Storage à utiliser doit avoir été créé et vous devez avoir les autorisations adéquates pour y accéder. Pour plus d'informations concernant Azure Storage, consultez Didacticiels pas à pas dans la documentation Azure.
- Lorsque vous utilisez un composant d'apprentissage automatique (Machine Learning) ou un tMatchPredict, vous avez configuré le paramètre Databricks Runtime Version à X.X LTS ML.