Propriétés du tRandomForestModel pour Apache Spark Batch
Ces propriétés sont utilisées pour configurer le tRandomForestModel s'exécutant dans le framework de Jobs Spark Batch.
Le composant tRandomForestModel Spark Batch appartient à la famille Apprentissage automatique.
Ce composant est disponible dans les produits Talend Platform avec Big Data et dans Talend Data Fabric.
Basic settings
Label column |
Sélectionnez la colonne d'entrée utilisée pour fournir les libellés de classification. Les enregistrements de cette colonne sont utilisés comme noms de classe (cible, en termes de classification) des éléments à classifier. |
Feature column |
Sélectionnez la colonne d'entrée utilisée pour fournir les caractéristiques. Très souvent, cette colonne est la sortie des calculs de pré-traitement des caractéristiques effectués par le tModelEncoder. |
Save the model on file system |
Cochez cette case pour stocker le modèle dans un système de fichiers donné. Sinon, le modèle est stocké dans la mémoire. Le bouton pour parcourir votre système ne fonctionne pas en mode Local de Spark. Si vous utilisez le mode Yarn ou Standalone de Spark, assurez-vous d'avoir correctement configuré la connexion dans un composant de configuration au sein du même Job, comme le tHDFSConfiguration. |
Number of trees in the forest |
Saisissez le nombre d'arbres de décision que vous souhaitez que le tRandomForestModel construise. Chaque arbre de décision est construit indépendamment à l'aide d'un échantillon aléatoire de caractéristiques. L'incrémentation de ce nombre peut améliorer la précision en diminuant les variations des prédictions, mais augmente le temps d'apprentissage. |
Maximum depth of each tree in the forest |
Saisissez la profondeur de l'arbre de décision à laquelle la construction doit arrêter d'ajouter des nœuds. Les nouveaux nœuds représentent des tests plus avancés sur les caractéristiques des nœuds internes et des possibles libellés de classes contenus par les nœuds des feuilles. Pour un arbre de profondeur n, le nombre de nœuds internes est 2n - 1. Par exemple, une profondeur (depth) de 1 signifie 1 nœud interne plus 2 nœuds de feuilles. De manière générale, un arbre de décision plus profond est plus expressif et potentiellement plus précis dans ses prédictions, mais consomme également plus de ressources et est plus prompt au surapprentissage. |
Advanced settings
Subsampling rate |
Saisissez la valeur numérique pour indiquer la fraction du jeu de données d'entrée utilisée pour l'apprentissage de chaque arbre de la forêt. La valeur par défaut 1.0 est recommandée, ce qui signifie que le jeu de données complet est utilisé à des fins de test. |
Subset strategy |
Sélectionnez la stratégie concernant le nombre de caractéristiques devant être considérées sur chaque nœud interne pour diviser de manière appropriée ce nœud interne (l'ensemble d'apprentissage ou le sous-ensemble d'une caractéristique de ce nœud) en de plus petits sous-ensembles. Ces sous-ensembles sont utilisés pour construire des nœuds enfants. Chaque stratégie prend en compte un nombre différent de caractéristiques pour trouver le point optimal parmi ces caractéristiques pour la division. Ce point, peut être, par exemple, l'âge 35 de la caractéristique catégorique age.
|
Set Checkpoint Interval |
Définissez la fréquence des points de contrôle. Il est recommandé de conserver la valeur par défaut (10). Avant de définir la valeur de ce paramètre, activez l'opération de point de contrôle et définissez le répertoire de stockage des points de contrôle dans l'onglet Spark Configuration de la vue Run. Pour plus d'informations concernant les points de contrôle, consultez Logs et points de contrôle des activités de votre Job Spark Apache. Pour plus d'informations concernant les points de contrôle des activités de votre Job Apache Spark, consultez la documentation sur Talend Help Center (https://help.talend.com (uniquement en anglais)). |
Max bins |
Saisissez la valeur numérique indiquant le nombre maximal de bins utilisés pour diviser les caractéristiques. Les caractéristiques continues sont automatiquement transformées pour trier les caractéristiques discrètes. |
Min info gain |
Saisissez le nombre minimum de gains d'information à attendre d'un nœud parent vers ses nœuds enfants. Lorsque le nombre de gains d'information est inférieur au nombre minimum, la division des nœuds est arrêtée. La valeur minimum par défaut du nombre de gains d'information est 0.0, ce qui signifie qu'aucune information supplémentaire n'est obtenue en divisant un nœud donné. Par conséquent, la division peut être arrêtée. Pour plus d'informations concernant le calcul du gain d'information, consultez Impurity and Information gain (uniquement en anglais) dans la documentation Spark (en anglais). |
Min instances per node |
Saisissez le nombre minimal d'instances d'apprentissage qu'un nœud doit avoir pour qu'il soit valide pour une division ultérieure. La valeur par défaut est 1, ce qui signifie que, lorsqu'un nœud contient seulement 1 ligne de données d'apprentissage, sa division s'arrête. |
Impurity |
Sélectionnez la mesure utilisée pour obtenir la meilleure division de chaque ensemble de divisions.
Pour plus d'informations concernant le calcul de chaque mesure, consultez Impurity measures (uniquement en anglais), dans la documentation Spark (en anglais). |
Set a random seed |
Saisissez le numéro de graine aléatoire à utiliser pour le bootstrapping et choisissez les sous-ensembles de caractéristiques. |
Utilisation
Règle d'utilisation |
Ce composant est utilisé en tant que composant de fin et requiert un lien d'entrée. Vous pouvez accélérer le processus d'apprentissage en ajustant les conditions d'arrêt, comme la profondeur maximale de chaque arbre de décision, le nombre maximal de bins de division ou le nombre minimum de nombre de gains d'informations, mais notez que si l'apprentissage s'arrête trop tôt, cela peut avoir un impact sur ses performances. |
Model evaluation |
Les paramètres que vous devez configurer sont des paramètres libres. Leur valeur peut être fournie par des essais, des suppositions empiriques ou autres. Ils n'ont aucune valeur optimale applicable pour les ensembles de données. Vous devez apprendre le modèle de classification que vous générez avec différents ensembles de valeurs de paramètres jusqu'à ce que vous obteniez la meilleure matrice de confusion. Cependant, vous devez écrire vous-même le code d’évaluation, afin de noter votre modèle avec des scores. Vous devez sélectionner les scores à utiliser selon l'algorithme à utiliser pour apprendre votre modèle de classification. Cela vous permet de construire la matrice de confusion la plus pertinente. Pour des exemples concernant comment utiliser une matrice de confusion dans un Job Talend à des fins de classification, consultez Création d'un modèle de classification pour filtrer les spams. Pour des explications générales relatives aux matrices de confusion, consultez les articles de Wikipédia suivants : https://en.wikipedia.org/wiki/Confusion_matrix (uniquement en anglais) pour une version française et pour une version anglaise plus détaillée. |
Spark Connection |
Dans l'onglet Spark Configuration de la vue Run, définissez la connexion à un cluster Spark donné pour le Job complet. De plus, puisque le Job attend ses fichiers .jar dépendants pour l'exécution, vous devez spécifier le répertoire du système de fichiers dans lequel ces fichiers .jar sont transférés afin que Spark puisse accéder à ces fichiers :
Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie. |