Comprendre les compteurs de valeur des abonnements
Les compteurs de valeur déterminent la tarification et la facturation des abonnements Qlik Cloud en mesurant l'utilisation des ressources. Les abonnements basés sur la capacité utilisent principalement le volume de données, mais les compteurs de valeur spécifiques dépendent de votre type d'abonnement.
Compteurs de valeur des abonnements par type d'abonnement
Le tableau suivant montre les principaux compteurs de valeur de chaque type d'abonnement :
| Option d'abonnement | Compteurs de valeur |
|---|---|
| Qlik Cloud Analytics Starter (Débutant) | Utilisateurs |
| Qlik Cloud Analytics - Standard | Données à analyser |
| Qlik Cloud Analytics - Premium | Données à analyser |
| Qlik Cloud Enterprise | Données à analyser, Données déplacées |
| Démarreur Qlik Talend Cloud | Données déplacées |
| Qlik Talend Cloud Standard | Données déplacées, calcul Open Lakehouse |
| Qlik Talend Cloud Premium | Données déplacées, transformations de données tierces ($/Go), exécution de jobs, durée des jobs, calcul Open Lakehouse |
| Qlik Talend Cloud Enterprise |
Données déplacées, transformations de données tierces ($/Go), exécution de jobs, durée des jobs, calcul Open Lakehouse |
| Qlik Anonymous Access | Anonymous Capacity, Anonymous Concurrent Sessions |
Surveillance de l'utilisation des ressources
Les administrateurs peuvent suivre l'utilisation de Données à analyser, Données déplacées et d'autres ressources dans le centre d'activités Administration et Application de rapports de capacité de données.
Le propriétaire du compte de service (Service Account Owner ou SAO) peut surveiller la consommation et afficher les détails des abonnements dans My Qlik.
Pour plus d'informations, consultez :
Pour plus d'informations sur les métriques des licences, consultez la description de produit Abonnements Qlik Cloud®.
Données à analyser
Qlik Cloud Analytics est mesuré en fonction du volume Données à analyser. Ce compteur de valeur compte le volume total de données chargées et analysées dans Qlik Cloud. Votre utilisation mensuelle maximale est comparée à la capacité que vous avez achetée. Si vous allez au-delà de votre capacité, cela peut entraîner des dépassements.
Pour des informations détaillées sur les données incluses, la manière dont l'utilisation est calculée et les meilleures pratiques pour la gestion de vos données, consultez Données à analyser.
Données déplacées
La métrique Données déplacées correspond à la somme de toutes les données déplacées vers une cible. Vous pouvez déplacer des données vers tout type de cible. Le type des sources depuis lesquelles vous pouvez déplacer des données dépend de votre abonnement. Le nombre de cibles ou de sources est illimité.
Mode de calcul de Données déplacées
Les Données déplacées sont mesurées à partir du début du mois. Elles sont comptabilisées à mesure qu'elles sont déposées temporairement dans la cible. Cela signifie que les mêmes données répliquées vers deux cibles différentes sont comptées deux fois. Le chargement complet initial de nouvelles tables ou de nouveaux fichiers est gratuit et n'est pas compté.
Le volume Données déplacées est calculé comme le nombre de lignes du jeu de données multiplié par la taille de ligne estimée. La taille de ligne estimée est calculée comme la taille totale de toutes les colonnes d'une ligne, suivant le type de données de chaque colonne. Pour des informations détaillées sur le rapport entre la représentation interne des types de données et votre schéma cible, consultez Connexion à des plateformes de données Cloud dans vos projets de données et accédez à la section Types de données de la rubrique de votre plateforme de données Cloud.
Le nombre de lignes utilisé dans le calcul du volume Données déplacées peut être légèrement différent de la valeur prévue. Ces petites variations sont prévues et sont dues à des artefacts techniques qui ne peuvent pas être contrôlés par Qlik.
Par exemple, lors du chargement d'une table volumineuse, la base de données peut envoyer deux fois la même ligne (lectures fantômes) ou compter une ligne comme actualisation et comme ligne de modification. Des variations peuvent également se produire dans les nombres de modifications lorsqu'une modification déclenche une exécution ; cela produit des modifications imprévues supplémentaires, et les nombres de modifications sont lus dans le journal des transactions ou dans une source de modifications.
Le calcul Données déplacées est basé sur le jeu de données de dépôt temporaire tel qu'il apparaît dans Qlik Cloud. Les modifications apportées à ce jeu de données seront prises en compte, par exemple, l'ajout de nouvelles colonnes. Si vous tentez de reproduire les calculs de volume Données déplacées, assurez-vous d'utiliser les bons types de données tels qu'ils apparaissent dans Qlik Cloud et non la source, car cela affecte la taille de colonne du calcul. Par exemple, l'utilisation de varchar(20) au lieu de varchar(10) double la contribution des colonnes à la taille de ligne estimée.
Types et tailles de données utilisés dans le calcul
Le tableau suivant répertorie la taille de chaque type de données. La fonction min() utilisée pour bytes, string et wstring renvoie la plus petite des deux valeurs, soit length/2, soit 200.
| Type de données | Taille (en octets) |
|---|---|
| Non spécifié | 1 |
| BOOLEAN | 1 |
| BYTES(length) | min(length/2, 200) |
| DATE | 4 |
| TIME | 4 |
| DATETIME | 8 |
| INT1 | 1 |
| INT2 | 2 |
| INT4 | 4 |
| INT8 | 8 |
| REAL4 | 2 |
| REAL8 | 4 |
| UINT1 | 1 |
| UINT2 | 2 |
| UINT4 | 4 |
| UINT8 | 8 |
| NUMERIC | 2 |
| STRING(length) | min(length/2, 200) |
| WSTRING(length) | min(length/2, 200) |
| BLOB | 200 |
| CLOB | 200 |
| NCLOB | 200 |
| JSON | 200 |
Calcul du volume Données déplacées
Dans cet exemple, nous avons un jeu de données de catégories de produits. Le jeu de données comporte 100 lignes et les colonnes suivantes :
| Nom de la colonne | Type de données |
|---|---|
| CategoryID | INT4 |
| CategoryName | WSTRING(15) |
| Description | NCLOB |
| Image | BLOB |
Une taille fixe est associée à chaque type de données :
| Type de données | Taille (en octets) |
|---|---|
| INT4 | 4 |
| WSTRING(15) | min(15/2, 200) = 7.5 |
| NCLOB | 200 |
| BLOB | 200 |
À présent, nous pouvons calculer la taille de ligne estimée comme la somme des tailles de colonne : 4 + 7,5 + 200 + 200 = 411,5 octets. Cette valeur, multipliée par 100 lignes, nous donne un volume de données total de 41 150 octets.
Transformations de données tierces
Cette métrique s'applique à tous les jeux de données enregistrés via la tâche de données pour Données enregistrées. Les transformations tierces sont mesurées en $/Go à partir du début du mois.
Les Go des transformations de données tierces sont calculés à l'aide de la même logique que celle appliquée pour Données déplacées : le nombre de lignes du jeu de données multiplié par la taille de ligne estimée. Pour plus d'informations sur l'estimation de la taille de ligne, consultez Données déplacées.
Lors du traitement de données via la tâche Données enregistrées, le traitement du chargement complet ou initial est compté dans la consommation de capacité. Les exécutions suivantes détecteront les lignes modifiées et compteront uniquement les enregistrements modifiés.
Calcul Open Lakehouse
Le calcul Open Lakehouse est une métrique d'utilisation mesurée en heures-cœur. Il s'applique aux charges de travail en flux qui s'exécutent sur des clusters Qlik Open Lakehouse compatibles avec les flux.
Les charges de travail en flux sont supportées par les types de tâche suivants :
-
Dépôt temporaire de flux
-
Transformation de flux
Les charges de travail en flux s'exécutent uniquement sur des clusters compatibles avec les flux. Pour plus de détails, consultez Gestion des clusters de lakehouse.
Mode de calcul des heures-cœur
Le calcul Open Lakehouse affiche le total des heures-cœur utilisées pour les charges de travail en flux sur les clusters Qlik Open Lakehouse au cours du mois de facturation.
Les heures-cœur ne sont comptées que lorsqu'une tâche de flux (ou une tâche de maintenance associée) s'exécute sur le cluster. Si le cluster est en cours d'exécution, mais qu'aucune tâche de flux n'est exécutée, les heures-cœur ne sont pas comptabilisées.
Les clusters avec plus de cœurs d'UC consomment des heures-cœur plus rapidement. Par exemple :
-
Un système à 8 cœurs s'exécutant pendant 1 heure utilise 8 heures-cœur.
-
Un système à 16 cœurs s'exécutant pendant 1 heure utilise 16 heures-cœur.
Calcul des heures-cœur
Un cluster de lakehouse compatible avec les flux avec deux instances à 8 cœurs s'exécutant 24 heures sur 24 pendant 31 jours (sans mise à l'échelle automatique), utilise :
2 × 8 × 24 × 31 = 11 904 heures-cœur
Barème de conversion progressif des charges de travail importantes
Pour les charges de travail à grande échelle, le barème de conversion suivant est appliqué au calcul Open Lakehouse :
-
0 à 48 000 heures-cœur : 100 % des heures sont comptabilisés.
-
48 001–186 000 heures-cœur : 50 % des heures sont comptabilisés.
-
Au-delà de 186 000 heures-cœur : 10 % des heures sont comptabilisés.
Exécution du job et Durée du job
Exécution du job et Durée du job sont les principales métriques des fonctionnalités Talend Data Fabric incluses dans les abonnements Qlik Talend Cloud.
Mode de comptage de l'exécution des jobs
Les exécutions de job correspondent au nombre total d'exécutions de job effectuées et terminées au cours d'un mois donné. Un job est identifié sous la forme d'un ID d'artéfact distinct, tel qu'indiqué dans Talend Management Console. Les jobs toujours activés sont comptés une fois au cours de chaque mois d'exécution du job.
Mode de calcul de la durée des jobs
La durée d'un job est la durée totale en minutes, mesurée à partir du moment où un job démarre jusqu'à ce qu'il s'arrête. Pour les jobs par lots, la durée est comptée au cours du mois durant lequel le job s'est correctement terminé. Pour les jobs toujours activés, la durée est mesurée à partir du moment d'exécution de début au cours de chaque mois d'exécution du job.
La durée réelle est convertie en métrique facturable à l'aide d'une échelle de conversion progressive :
- 0–24 000 heures : 5 % des heures sont comptabilisés.
- Au-delà de 24 000 heures : 1 % des heures est comptabilisé.
Anonymous Capacity
Anonymous Capacity s'applique uniquement aux abonnements Qlik Anonymous Access. Ce compteur de valeurs se réfère à l'utilisation totale de la RAM que toutes les applications chargées dans la mémoire peuvent consommer à un moment donné. Cela inclut les sessions des utilisateurs du client (les sessions ouvertes par les utilisateurs et les administrateurs au sein du client) et les sessions des utilisateurs anonymes (les sessions ouvertes par des utilisateurs qui ne sont pas connectés au client Qlik Cloud).
La valeur Anonymous Capacity d'un client est définie par la quantité achetée dans le cadre de l'abonnement.
Anonymous Concurrent Sessions
Anonymous Concurrent Sessions s'applique uniquement aux abonnements Qlik Anonymous Access. Ce compteur de valeurs définit le nombre maximal de sessions d'applications qui peuvent être exécutées simultanément par des utilisateurs anonymes (des utilisateurs qui ne sont pas connectés au client Qlik Cloud).
La valeur Anonymous Concurrent Sessions d'un client est définie par la quantité achetée dans le cadre de l'abonnement. Vous pouvez acheter jusqu'à 1 000 sessions. Pour plus d'informations, consultez Spécifications et limites de capacité de Qlik Anonymous Access.