跳到主要内容 跳到补充内容

了解订阅价值表

价值计量器通过测量资源使用情况来确定 Qlik Cloud 订阅的定价和计费。基于容量的订阅主要使用数据量,但具体的值计量因素取决于您的订阅类型。

按照订阅类型划分的订阅价值计量器

下表显示了每种订阅类型的主要价值计量因素:

订阅价值计量因素
订阅选项 值计量因素
Qlik Cloud Analytics 入门版 用户
Qlik Cloud Analytics Standard 分析数据
Qlik Cloud Analytics Premium 分析数据
Qlik Cloud 企业版 用于分析的数据、移动的数据
Qlik Talend Cloud Starter 已移动数据
Qlik Talend Cloud Standard 已移动数据,Open Lakehouse 计算
Qlik Talend Cloud Premium 已移动数据、第三方数据转换 ($/GB)、作业执行、作业持续时间、Open Lakehouse 计算
Qlik Talend Cloud Enterprise

已移动数据、第三方数据转换 ($/GB)、作业执行、作业持续时间、Open Lakehouse 计算

Qlik Anonymous Access Anonymous Capacity, Anonymous Concurrent Sessions

监控资源使用情况

管理员可以跟踪 Administration 活动中心和 数据容量报告应用程序 中用于分析的数据、移动的数据和其他资源的使用情况。

服务帐户所有者 (SAO) 可以在 My Qlik 中监控消费并查看订阅详细信息。

有关更多信息,请参阅:

有关许可指标的更多信息,请参阅 Qlik Cloud® 订阅产品描述。

分析数据

在分析数据体积上测量 Qlik Cloud Analytics。该值表计算的是加载到 Qlik Cloud 并在其中进行分析的数据总量。将您的每月峰值使用量与您购买的容量进行比较。超出容量可能会产生超额费用。

关于包含哪些数据、如何计算使用量以及管理数据的最佳实践的详细信息,请参阅分析数据

移动的数据

移动的数据指标是所有移动到目标的数据的总和。您可以将数据移动到任何类型的目标。您可以从中移动数据的源类型取决于您的订阅。对于目标或来源的数量没有限制。

已移动数据的计算方式

移动的数据是从月初开始测量的。当它在目标上登陆时就被计算在内。这意味着复制到两个不同目标的相同数据将被计数两次。新表或文件的初始满负载是空闲的,未计算在内。

移动的数据量计算为数据集中的行数乘以估计的行大小。根据每列的数据类型,估计的行大小计算为一行中所有列的总大小。有关数据类型的内部表示如何映射到目标架构的详细信息,请参阅连接到数据项目中的云数据平台并转到云数据平台主题中的“数据类型”部分。

信息注释

计算移动的数据量时使用的行数可能与预期值略有不同。这些微小的差异是意料之中的,由 Qlik 无法控制的技术人工痕迹造成。

例如,当加载一个大表时,数据库可能会发送同一行两次(幻像读取),或者将一行同时计算为重载行和更改行。当更改导致触发器执行,从而产生额外的意外更改,并且更改计数是从事务日志或更改源读取时,更改计数也可能出现差异。

移动的数据计算基于 Qlik Cloud 中显示的登陆数据集。将考虑对此数据集的更改,例如添加新列。如果您试图重新生成移动的数据量计算,请确保使用的是和 Qlik Cloud(而不是源)中显示的一样的正确据类型,因为这会影响计算中的列大小。例如,使用 varchar(20) 而不是 varchar(10) 会使列对估计行大小的贡献加倍。

计算中使用的数据类型及大小

下表列出了每个数据类型的大小。用于字节、字符串和 wstring 的 min() 函数返回两个值中最小的一个,即 length/2 或 200。

Qlik Cloud 数据类型的大小
数据类型 大小(按字节计)
未指定 1
BOOLEAN 1
BYTES(length) min(length/2, 200)
DATE 4
TIME 4
DATETIME 8
INT1 1
INT2 2
INT4 4
INT8 8
REAL4 2
REAL8 4
UINT1 1
UINT2 2
UINT4 4
UINT8 8
NUMERIC 2
STRING(length) min(length/2, 200)
WSTRING(length) min(length/2, 200)
BLOB 200
CLOB 200
NCLOB 200
JSON 200

示例: 计算移动的数据量

在本例中,我们有一个产品类别的数据集。该数据集有 100 行和以下列:

列名称 数据类型
CategoryID INT4
CategoryName WSTRING(15)
描述 NCLOB
图片 BLOB

每种数据类型都有一个固定的大小:

数据类型 大小(按字节计)
INT4 4
WSTRING(15) min(15/2, 200) = 7.5
NCLOB 200
BLOB 200

我们现在可以将估计的行大小计算为列大小的总和:4 + 7.5 + 200 + 200 = 411.5 字节。乘以 100 行,得出 41,150 字节的总数据量。

第三方数据转换

此指标适用于使用已注册数据的数据任务注册的所有数据集。从月初开始,第三方转换以 $/GB 为单位进行计量。

第三方数据转换的 GB 计算逻辑与已移动相同:数据集中的行数乘以估计的行大小。有关估计行尺寸的详细信息,请参见移动的数据

当通过注册数据任务处理数据时,满载或初始负载处理将计入容量。后续执行将检测更改的行,并只将更改的记录计入容量。

Open Lakehouse 计算

Open Lakehouse 计算是一种用核心小时为单位进行衡量的使用指标。它适用于在支持流式传输 Qlik Open Lakehouse 的群集上运行的数据流工作负载。

以下任务类型支持数据流工作负载:

  • 数据流登陆

  • 数据流转换

数据流工作负载只能在支持数据流的群集上运行。有关详细信息,请参阅管理湖空间群集

信息注释CDC 及其他在支持 CDC 的 lakehouse 群集上运行的非流式工作负载,均通过“数据移动量”指标进行衡量。

如何计算核心工时

Open Lakehouse 计算显示计费月份内 Qlik Open Lakehouse 群集上用于流式工作负载的总计核心小时数。

核心小时数仅在数据流任务(或相关的维护任务)于群集上运行时计算。如果群集正在运行但没有数据流任务正在执行,则不计算核心小时数。

具有更多 CPU 核心的群集会更快地消耗核心小时数。例如:

  • 一个 8 核心系统运行 1 小时会使用 8 个核心小时数。

  • 运行 1 小时的 16 核系统使用 16 个核心小时数。

示例: 计算核心小时数

一个启用数据流的湖空间群集,具有两个 8 核心实例,每天运行 24 小时,持续 31 天(无自动扩缩),使用:

2 × 8 × 24 × 31 = 11,904 核心小时

大型工作负载的渐进式转换规模

对于大规模工作负载,以下转换规适合 Open Lakehouse 计算:

  • 0–48,000 个核心小时:100% 的小时数被计算在内。

  • 48,001–186,000 核心小时:50% 的小时数被计算在内。

  • 186,000 个核心小时:10% 的小时数被计算在内。

作业执行和作业持续时间

作业执行和作业持续时间是 Qlik Talend Cloud 订阅中包含的 Talend Data Fabric 功能的主要指标。

如何计算作业执行

作业执行是指在给定月份内执行和结束的作业运行总数。作业被标识为 Talend Management Console 中报告的不同工件 ID “始终运行的作业”在作业运行的每个月计算一次。

如何计算作业持续时间

作业持续时间是指从作业开始到停止的总持续时间(分钟)。对于批量作业,持续时间在作业成功结束的月份计入。对于始终执行的作业,持续时间从作业运行的每个月的开始执行时间开始计算。

使用累进转换比例将实际持续时间转换为可收费指标:

  • 0–24,000 个核心小时:5% 的小时数被计算在内。
  • 24,000 个小时以上:1% 的小时数被计算在内。

Anonymous Capacity

Anonymous Capacity 仅适用于 Qlik Anonymous Access 订阅。 这个值表是指所有加载到内存中的应用程序在给定时间可以消耗的总 RAM 使用量。这包括租户用户会话(由租户内的用户和管理员打开的会话)和匿名用户会话(未登录 Qlik Cloud 租户的用户打开的会话)。

租户的 Anonymous Capacity 是由订阅之内已购买的购买量定义者。

Anonymous Concurrent Sessions

Anonymous Concurrent Sessions 仅适用于 Qlik Anonymous Access 订阅。 此值表定义匿名用户(未登录 Qlik Cloud 租户的用户)可以并发运行的应用程序会话的最大数量。

租户的 Anonymous Concurrent Sessions 是由订阅之内已购买的购买量定义者。您最多可以购买 1000 个会话。有关更多信息,请参阅Qlik Anonymous Access 规格和容量限制

本页面有帮助吗?

如果您发现此页面或其内容有任何问题 – 打字错误、遗漏步骤或技术错误 – 请告诉我们!