Accéder au contenu principal Passer au contenu complémentaire

Configurer la connexion au système de fichiers HDFS de votre cluster EMR

Procédure

  1. Double-cliquez sur le tHDFSConfiguration pour ouvrir sa vue Component.

    Spark utilise ce composant pour se connecter au système HDFS auquel sont transférés les fichiers .jar dépendants du Job.

  2. Si vous avez défini la métadonnée de connexion à HDFS dans le dossier Hadoop cluster du Repository, sélectionnez Repository dans la liste déroulante Property type et cliquez sur le bouton [...] afin de sélectionner dans l'assistant Repository content la connexion à HDFS définie.

    Pour plus d'informations concernant la configuration d'une connexion à HDFS réutilisable, consultez Centraliser des métadonnées HDFS.

    Si vous terminez cette étape, vous pouvez ignorer les étapes relatives à la configuration du tHDFSConfiguration, car tous les champs requis ont été automatiquement renseignés.

  3. Dans la zone Version, sélectionnez la distribution Hadoop et la version à laquelle vous connecter.
  4. Dans le champ NameNode URI, saisissez l'emplacement de la machine hébergeant le service NameNode du cluster. Si vous utilisez WebHDFS, l'emplacement doit être webhdfs://masternode:portnumber ; WebHDFS avec SSL n'est pas supporté.
  5. Dans le champ Username, saisissez les informations d'authentification utilisées pour vous connecter au système HDFS à utiliser. Notez que le nom d'utilisateur ou d'utilisatrice doit être le même que celui saisi dans l'onglet Spark configuration.

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – faites-le-nous savoir.