メイン コンテンツをスキップする 補完的コンテンツへスキップ

サブスクリプションの計測基準について

計測基準により、リソースの使用状況が測定され、Qlik Cloud サブスクリプションの価格と課金が決定されます。容量ベースのサブスクリプションは主にデータ量が使用されますが、具体的な計測基準はサブスクリプションの種類に応じて異なります。

サブスクリプション タイプ別のサブスクリプションの計測基準

次の表は、各サブスクリプション タイプの主な計測基準を示しています。

サブスクリプションの計測基準
サブスクリプション オプション 計測基準
Qlik Cloud Analytics Starter ユーザー
Qlik Cloud 分析スタンダード 分析用データ
Qlik Cloud Analytics Premium 分析用データ
Qlik Cloud Enterprise 分析用データ、データ移動
Qlik Talend Cloud スターター データ移動
Qlik Talend Cloud Standard データ移動、Open Lakehouse コンピュート
Qlik Talend Cloud Premium データ移動、サードパーティのデータの変換 ($/GB)、ジョブ実行、ジョブ期間、Open Lakehouse コンピュート
Qlik Talend Cloud Enterprise

データ移動、サードパーティのデータの変換 ($/GB)、ジョブ実行、ジョブ期間、Open Lakehouse コンピュート

Qlik Anonymous Access Anonymous CapacityAnonymous Concurrent Sessions

リソースの使用状況の監視

管理者は、管理 アクティビティ センターおよび データ容量レポーティング アプリ で、分析用データ、移動データ、その他のリソースの使用状況を追跡できます。

サービス アカウント所有者 (SAO) は、My Qlik で消費を監視し、サブスクリプションの詳細を表示できます。

詳細は以下をご覧ください。

ライセンス メトリクスの詳細については、「Qlik Cloud® サブスクリプションの製品説明」を参照してください。

分析用データ

Qlik Cloud Analytics は、分析用データ量で測定されます。この値計は、Qlik Cloud にロードされ、分析されたデータの総量をカウントします。毎月のピーク使用量は、購入した容量に基づいて比較されます。容量を超えると超過料金が発生する場合があります。

含まれるデータ、使用量の計算方法、データ マネージャーのベストプラクティスの詳細については、「分析用データ」をご覧ください。

データ移動

データ移動の指標は、ターゲットに移動したすべてのデータの合計です。どのタイプのターゲットにもデータを移動できます。データを移動できるソースの種類は、サブスクリプションに応じて異なります。ターゲットまたはソースの数に制限はありません。

データ移動の計算方法

データ移動は月初から計測されます。ターゲットにランディングするとカウントされます。つまり、2 つの異なるターゲットに複製された同じデータは 2 回カウントされることになります。新しいテーブルまたはファイルの最初のフル ロードは無料で、カウントされません。

データ移動量は、データセットの行数に推定行サイズを掛けて計算されます。推定行サイズは、各列のデータ型に基づいて、行内のすべての列の合計サイズとして計算されます。データ型の内部表現をターゲット スキーマにマッピングする方法の詳細については、「 データ プロジェクトでクラウド データ プラットフォームに接続する 」を参照して、クラウド データ プラットフォームのトピックの「データ タイプ」セクションに移動してください。

情報メモ

データ移動量の計算に使用される行数は、予期される値とはわずかに異なる場合があります。これらのわずかな違いは予想されるもので、Qlik では制御できない技術的なアーティファクトによって引き起こされます。

たとえば、大きなテーブルをロードする場合、データベースは同じ行を 2 回送信する (ファントム リード) か、1 つの行をリロードと変更行の両方としてカウントする可能性があります。変更によってトリガーが実行されることにより予期しない追加の変更が行われ、変更カウントがトランザクション ログまたは変更ソースから読み取られる場合にも、変更カウントに差異が生じる可能性があります。

データ移動の計算は、Qlik Cloud に表示されるようなランディング データセットに基づいています。新しい列の追加など、このデータセットへの変更が考慮されます。データ移動量の計算を再現しようとしている場合は、ソースではなく Qlik Cloud に表示される正しいデータ型を使用していることを確認してください。これは、計算の列サイズに影響します。たとえば、varchar(10) の代わりに varchar(20) を使用すると、推定行サイズに対する列の寄与度が 2 倍になります。

計算で使用されるデータ型とサイズ

次の表には、各データ型のサイズが示されています。bytes、string、wstring に使用される min() 関数は、length/2 または 200 のいずれかの 2 つの値の最小値を返します。

Qlik Cloud データ型のサイズ
データ タイプ サイズ (バイト)
不特定 1
BOOLEAN 1
BYTES(長さ) min(長さ/2, 200)
日付 4
TIME 4
DATETIME 8
INT1 1
INT2 2
INT4 4
INT8 8
REAL4 2
REAL8 4
UINT1 1
UINT2 2
UINT4 4
UINT8 8
NUMERIC 2
STRING(長さ) min(長さ/2, 200)
WSTRING(長さ) min(長さ/2, 200)
BLOB 200
CLOB 200
NCLOB 200
JSON 200

データ移動量の計算

この例には、製品カテゴリのデータセットがあります。データセットには 100 行と次の列があります。

列名 データ タイプ
CategoryID INT4
CategoryName WSTRING(15)
説明 NCLOB
写真 BLOB

各データ型には次の固定サイズがあります。

データ タイプ サイズ (バイト)
INT4 4
WSTRING(15) min(15/2, 200) = 7.5
NCLOB 200
BLOB 200

列サイズの合計として推定行サイズを計算できるようになりました。4 + 7.5 + 200 + 200 = 411.5 バイト。100 行を掛けると、合計データ量は 41,150 バイトになります。

サード パーティのデータの変換

このメトリクスは、登録済みデータのデータ タスクを使用して登録されたすべてのデータセットに適用されます。サードパーティの変換は、月初から $/GB で測定されます。

サードパーティのデータの変換の GB は、データ移動と同じロジックで計算されます。つまり、データセット内の行数に推定行サイズを掛けます。推定行サイズの詳細については、「データ移動」を参照してください。

登録済みデータ タスクを通じてデータを処理する場合は、フル ロード処理または初期ロード処理が容量にカウントされます。後続の実行では変更された行が検出され、変更されたレコードのみがカウントされます。

Open Lakehouse コンピュート

Open Lakehouse コンピュートは、コア時間で測定される使用状況メトリクスです。これは、ストリーミング対応の Qlik Open Lakehouse クラスターで実行されるストリーミング ワークロードに適用されます。

ストリーミング ワークロードは、次のタスク タイプでサポートされます。

  • ストリーミング ランディング

  • ストリーミング変換

ストリーミング ワークロードは、ストリーミング対応のクラスターでのみ実行できます。詳細については、「レイクハウス クラスターの管理」を参照してください。

情報メモCDC 対応のレイクハウス クラスターで実行される CDC およびその他の非ストリーミング ワークロードは、データ移動メトリクスによって測定されます。

コア時間の計算方法

Open Lakehouse コンピュートでは、請求月中に Qlik Open Lakehouse クラスター上のストリーミング ワークロードに使用されたコア時間の合計が表示されます。

コア時間は、ストリーミング タスク (または関連するメンテナンス タスク) がクラスター上で実行されている間のみカウントされます。クラスターが実行中であっても、ストリーミングタスクが実行されていない場合、コア時間はカウントされません。

CPU コア数が多いクラスターほど、コア時間の消費が速くなります。例:

  • 8 コア システムを 1 時間実行すると、8 コア時間が使用されます。

  • 16 コア システムを 1 時間実行すると、16 コア時間が使用されます。

コア時間の計算

2 つの 8 コア インスタンスを備えたストリーミング対応のレイクハウス クラスターは、31 日間 24 時間稼働し (自動スケーリングなし)、次が使用されます。

2 × 8 × 24 × 31 = 11,904 コア時間

大規模なワークロード向けの段階的な変換スケール

大規模なワークロードの場合、Open Lakehouse コンピュートには次の変換スケールが適用されます。

  • 0 ~ 48,000 コア時間: 時間の 100% がカウントされます。

  • 48,001 ~ 186,000 コア時間: 時間の 50% がカウントされます。

  • 186,000 時間を超えるコア時間: 時間の 10% がカウントされます。

ジョブ実行とジョブ期間

ジョブ実行とジョブ期間は、Qlik Talend Cloud サブスクリプションに含まれる Talend Data Fabric 機能の主なメトリクスです。

ジョブ実行のカウント方法

ジョブ実行とは、特定の月に実行され、完了したジョブ実行の合計数のことです。ジョブは、Talend Management Console で報告される個別のアーティファクト ID として識別されます。常時実行のジョブは、ジョブが実行されている各月に 1 回カウントされます。

ジョブ期間の計算方法

ジョブ期間は、ジョブの開始から停止までを測定した合計所要時間 (分単位) です。バッチ ジョブの場合、期間はジョブが正常に終了した月にカウントされます。常時実行のジョブの場合、期間はジョブが実行されている各月の実行開始時刻から測定されます。

実際の継続時間は、先進的な換算スケールを使って課金可能な指標に換算されます:

  • 0 ~ 24,000 時間: 5% の時間がカウントされます。
  • 24,000 時間を超える: 1% の時間がカウントされます。

Anonymous Capacity

Anonymous CapacityQlik Anonymous Access サブスクリプションにのみ適用されます。 この値メーターは、メモリにロードされたすべてのアプリが特定の時点で消費できる RAM の合計使用量を示します。これには、テナント ユーザー セッション (テナント内のユーザーと管理者によって開かれたセッション) と匿名ユーザー セッション (Qlik Cloud テナントにログインしていないユーザーによって開かれたセッション) が含まれます。

テナントの Anonymous Capacity は、サブスクリプション内で購入された購入量によって定義されます。

Anonymous Concurrent Sessions

Anonymous Concurrent SessionsQlik Anonymous Access サブスクリプションにのみ適用されます。 この値メーターは、匿名ユーザー (Qlik Cloud テナントにログインしていないユーザー) が同時に実行できるアプリ セッションの最大数を定義します。

テナントの Anonymous Concurrent Sessions は、サブスクリプション内で購入された購入量によって定義されます。最大 1000 セッションまで購入できます。詳細については、「Qlik Anonymous Access の仕様と容量制限」を参照してください。

このページは役に立ちましたか?

このページまたはコンテンツにタイポ、ステップの省略、技術的エラーなどの問題が見つかった場合はお知らせください。