Propriétés du tCassandraOutput pour Apache Spark Streaming
Ces propriétés sont utilisées pour configurer le tCassandraOutput s'exécutant dans le framework de Jobs Spark Streaming.
Le composant tCassandraOutput Spark Streaming appartient à la famille Bases de données.
Ce composant est disponible dans Talend Real-Time Big Data Platform et dans Talend Data Fabric.
Basic settings
Property type |
Peut être Built-In ou Repository. Built-In : aucune propriété n'est stockée de manière centrale. Repository : Sélectionnez le fichier dans lequel sont stockées les propriétés du composant. |
Sync columns |
Cliquez sur le bouton afin de récupérer le schéma du composant précédent dans le Job. |
Keyspace |
Saisissez le nom du Keyspace dans lequel écrire les données. |
Action on keyspace |
Sélectionnez l'opération que vous souhaitez effectuer sur le Keyspace à utiliser :
|
Column family |
Saisissez le nom du Keyspace dans lequel écrire les données. |
Action on column family |
Sélectionnez l'opération à effectuer sur la famille de colonnes à utiliser :
Cette liste est disponible uniquement lorsque vous avez sélectionné Update, Upsert ou Insert dans la liste Action on data. |
Action on data |
Sélectionnez l'opération que vous voulez effectuer :
Pour plus d'options avancées, utilisez la vue Advanced settings. |
Schema et Edit schema |
Un schéma est une description de lignes. Il définit le nombre de champs (colonnes) à traiter et à passer au composant suivant. Lorsque vous créez un Job Spark, évitez le mot réservé line lors du nommage des champs. Créez le schéma en cliquant sur le bouton Edit Schema. Si le schéma est en mode Repository, trois options sont disponibles :
Le schéma de ce composant ne supporte pas les types Object et List. |
|
Built-in : le schéma est créé et conservé localement pour ce composant seulement. |
|
Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets. Lorsque le schéma à réutiliser contient des valeurs par défaut de type Integer ou Function, assurez-vous que ces valeurs par défaut ne sont pas entourées de guillemets. Si elles le sont, supprimez manuellement les guillemets. Pour plus d'informations, consultez Récupérer les schémas de table. |
Advanced settings
Configuration |
Ajoutez les propriétés Cassandra à personnaliser lors de l'action d'upsert sur les données dans Cassandra.
La liste suivante présente les valeurs numériques que vous pouvez saisir ainsi que le niveau de cohérence auquel elles correspondent :
Lorsqu'une ligne est ajoutée à la table, vous devez cliquer sur la nouvelle ligne dans la colonne Property name pour afficher les liste des propriétés disponibles et sélectionnez la ou les propriété(s) à personnaliser. Pour plus d'informations concernant chacune de ces propriétés, consultez la section Tuning à l'adresse suivante : https://github.com/datastax/spark-cassandra-connector/blob/master/doc/5_saving.md (en anglais). |
Use unlogged batch |
Cochez cette case pour gérer les données par lot avec l'approche UNLOGGED de Cassandra. Cette fonctionnalité est disponible pour les trois actions suivantes : Insert, Update et Delete. Vous devez configurer la manière dont fonctionne le mode batch mode :
La situation idéale pour utiliser les batchs avec Cassandra est lorsqu'un petit nombre de tables doit synchroniser les données à insérer ou mettre à jour. Avec l'approche UNLOGGED, le Job n'écrit pas des lots dans le système batchlog de Cassandra et éviter les problèmes de performance liés à cette écriture. Pour plus d'informations concernant les instructions BATCH de Cassandra et l'approche UNLOGGED, consultez Batches (en anglais). |
Insert if not exists |
Cochez cette case pour insérer des lignes. Cette insertion de lignes s'effectue uniquement si elles n'existent pas dans la table cible. Cette fonctionnalité est disponible uniquement lorsque l'action Insert est sélectionnée. |
Delete if exists |
Cochez cette case pour supprimer de la table cible les lignes ayant le même enregistrement dans le flux entrant. Cette fonctionnalité est disponible uniquement lorsque l'action Delete est sélectionnée. |
Use TTL |
Cochez cette case pour écrire les données du TTL dans la table cible. Dans la liste de colonnes affichée, sélectionnez la colonne à utiliser comme colonne du TTL. Le type de cette colonne doit être Int. Cette fonctionnalité est disponible uniquement lorsque l'action Insert ou Update est sélectionnée. |
Use Timestamp |
Cochez cette case pour écrire les données de date et heure dans la table cible. Dans la liste de colonnes affichée, sélectionnez la colonne à utiliser pour stocker les données de date et heure. Le type de cette colonne doit être BigInt. Cette fonctionnalité est disponible pour les actions suivantes : Insert, Update et Delete. |
IF condition |
Ajoutez la condition à rencontrer pour que l'action Update ou Delete s'exécute. Cette condition vous permet d'être plus précis quant à la colonne à mettre à jour ou à supprimer. |
Special assignment operation |
Renseignez cette table afin de construire les commandes avancées SET de Cassandra, pour rendre l'action Update plus spécifique. Par exemple, ajouter un enregistrement au début ou à une position particulière d'une colonne donnée. Dans la colonne Update column de la table, vous devez sélectionnez la colonne à mettre à jour puis sélectionner les opérations à utiliser, depuis la colonne Operation. Les opérations suivantes sont disponibles :
|
Row key in the List type |
Sélectionnez la colonne à utiliser pour construire la clause WHERE de Cassandra pour effectuer l'action Update ou Delete sur les lignes sélectionnées. Les colonnes à utiliser dans cette table doivent provenir de l'ensemble des colonnes de clé primaire de la table Cassandra. |
Delete collection column based on postion/key |
Sélectionnez la colonne à utiliser comme référence afin de localiser la ou les ligne(s) à supprimer. Cette fonctionnalité est disponible uniquement lorsque l'action Delete est sélectionnée. |
Utilisation
Règle d'utilisation |
Ce composant est utilisé en tant que composant de fin et requiert un lien d'entrée. Ce composant doit utiliser un seul tCassandraConfiguration présent dans le même Job pour se connecter à Cassandra. La présence de plusieurs composants tCassandraConfiguration fait échouer l'exécution du Job. Ce composant, ainsi que la Palette Spark Batch à laquelle il appartient, ne s'affiche que lorsque vous créez un Job Spark Batch. Notez que, dans cette documentation, sauf mention contraire, un scénario présente uniquement des Jobs Standard, c'est-à-dire des Jobs Talend traditionnels d'intégration de données. |
Connexion à Spark |
Dans l'onglet Spark Configuration de la vue Run, définissez la connexion à un cluster Spark donné pour le Job complet. De plus, puisque le Job attend ses fichiers .jar dépendants pour l'exécution, vous devez spécifier le répertoire du système de fichiers dans lequel ces fichiers .jar sont transférés afin que Spark puisse accéder à ces fichiers :
Cette connexion fonctionne uniquement pour le Job dans lequel vous l'avez définie. |