Qlik Cloud Data Integration의 시스템 요구 사항 및 제한 사항
이 섹션에서는 Qlik Cloud Data Integration에 대한 요구 사항 및 제한 사항에 대해 설명합니다.
시작하기 전에 요구 사항을 검토하여 시작하는 데 필요한 모든 사항이 충족되었는지 확인해야 합니다.
워크플로 및 시스템 구성 요소에 대한 자세한 내용은 데이터 통합를 참조하십시오.
Qlik Cloud Data Integration에 대한 일반 요구 사항.
-
Qlik Cloud에서의 테넌트.
사용자는 데이터 공간에서 데이터 작업을 만들기, 관리 및 실행하기 위해 전문가 사용자 할당이 필요합니다.
분석가 사용자 할당이 있는 사용자는 데이터 공간에서 로드된 데이터가 포함된 분석 앱을 사용할 수 있습니다.
데이터 공간 참조
-
Qlik Sense Enterprise SaaS Government 메모Qlik Cloud 정부 사용자는 Qlik Cloud Data Integration를 사용할 수 없습니다.
-
데이터 소스에 연결할 때 기본 Qlik Cloud IP 주소를 허용 목록에 추가해야 할 수 있습니다.
자세한 내용은 도메인 이름 및 IP 주소 허용 목록 을 참조하십시오.
-
지원되는 데이터 소스에 대한 자세한 내용은 Qlik Cloud Data Integration에서 데이터 소스에 연결을 참조하십시오.
-
데이터 프로젝트 연결은 데이터 전달 및 푸시다운 변환을 위해 클라우드 데이터 플랫폼에 연결하는 데 사용됩니다. 자세한 내용은 데이터 프로젝트에서 데이터 파이프라인 만들기을 참조하십시오.
-
데이터 이동 게이트웨이를 사용하여 데이터 소스에 연결하는 경우 데이터 소스에 연결하는 데 필요한 드라이버 외에도 드라이버를 설치하고 데이터 프로젝트의 클라우드 데이터 웨어하우스에 연결하는 데 필요한 포트를 열어야 합니다. 자세한 내용은 Prerequisites for connecting to cloud data warehouses을 참조하십시오.
데이터 저장 요구 사항
-
데이터를 Amazon S3 버킷에 랜딩한 경우 Qlik Cloud가 관리하는 저장소 또는 사용자가 관리하는 Amazon S3 저장소에 QVD 테이블을 생성할 수 있습니다.
-
Snowflake 또는 Azure Synapse Analytics와 같은 클라우드 데이터 웨어하우스에 데이터를 랜딩하면 동일한 클라우드 데이터 웨어하우스에서 테이블을 생성할 수 있습니다.
-
클라우드 데이터 소스에서 클라우드 데이터 웨어하우스로 데이터를 랜딩한 경우 동일한 클라우드 데이터 웨어하우스에서 테이블을 생성할 수 있습니다.
스테이징 영역에 대한 요구 사항
일부 클라우드 데이터 플랫폼에 데이터를 랜딩하기 위한 스테이징 영역이 필요합니다.
-
Azure Synapse Analytics
Azure Data Lake Storage 스테이징 영역이 필요합니다.
-
Google BigQuery
Google Cloud Storage 스테이징 영역이 필요합니다.
-
Databricks
Azure Data Lake Storage, Google Cloud Storage 또는 Amazon S3에 준비 영역이 필요합니다.
QVD 테이블 생성을 위한 요구 사항
-
데이터 게이트웨이 - 데이터 이동 서버 컴퓨터의 쓰기 액세스 권한과 Qlik Cloud 테넌트의 읽기 액세스 권한이 있는 스테이징 데이터를 위한 Amazon S3 버킷.
경고 메모랜딩 영역이 안전한지 확인해야 합니다. Amazon S3에서 관리되는 키 또는 AWS KMS 관리되는 키와 함께 서버 측 암호화를 사용할 수 있습니다. -
Qlik 관리형 저장소가 아닌 자체 관리형 저장소에 저장소(QVD) 데이터를 저장하려면 Amazon S3 버킷이 필요합니다. 랜딩 데이터에 사용하는 것과 동일한 Amazon S3 버킷을 사용할 수 있지만 이를 위해서는 Qlik Cloud 테넌트의 쓰기 액세스 권한도 필요합니다. 또한 랜딩 데이터 및 저장소를 위해 별도의 폴더를 사용해야 합니다.
저장소를 관리하는 경우 데이터에서 앱 만들기 또는 데이터 프로필을 Analytics Hub에서 사용할 수 없습니다.
경고 메모관리 저장소가 안전한지 확인해야 합니다. Amazon S3에서 관리되는 키 또는 AWS KMS에서 관리되는 키와 함께 서버 측 암호화를 사용할 수 있습니다.
제한 사항
Qlik Cloud Data Integration을 사용하는 방법에는 몇 가지 제한이 있습니다.
일반적인 제한 사항
-
데이터 소스 스키마의 변경은 지원되지 않습니다. 데이터 소스의 스키마를 변경하는 경우 새 데이터 자산을 만들어야 합니다.
-
데이터 작업의 소유자를 변경하거나 데이터 작업을 다른 데이터 프로젝트로 이동할 수 없습니다.
-
랜딩 영역의 자동 정리는 지원되지 않습니다. 이는 성능에 영향을 미칠 수 있습니다. 수동 정리를 수행하는 것이 좋습니다.
-
저장소 데이터 자산의 테이블에 변경 사항을 적용하는 동안 작업의 다른 테이블 간에 트랜잭션 일관성이 없습니다.
-
데이터베이스 스키마는 단일 데이터 작업에만 연결할 수 있습니다.
-
두 개의 데이터 이동 게이트웨이 작업은 랜딩 영역의 동일한 테이블에 쓰지 않아야 합니다. 모범 사례는 각 데이터 이동 게이트웨이 작업에 대해 별도의 랜딩 영역을 사용하는 것입니다.
QVD 테이블 생성 시 제한 사항
-
데이터 공간은 항상 저장소 데이터 작업 용량을 제한하는 표준 용량으로 작동합니다. 저장소 데이터 작업에서 처리하는 각 테이블은 변경 사항을 포함하여 표준 앱에 대해 지원되는 앱 크기(메모리 내)까지의 전체 크기여야 합니다.
용량에 대한 자세한 내용은 확장 앱 및 전용 용량을 참조하십시오.
-
데이터 게이트웨이 - 데이터 이동가 없어도 액세스 가능한 데이터 소스는 Qlik Cloud가 데이터 플랫폼인 데이터 프로젝트에서 지원되지 않는다.
클라우드 데이터 웨어하우스에 대한 제한 사항
일반 제한 사항
-
모든 데이터 집합은 동일한 내부 스키마에 작성되고 모든 보기는 저장소의 동일한 데이터 자산 스키마에 작성됩니다. 따라서 단일 랜딩 데이터 작업의 다른 스키마에 동일한 이름을 가진 두 개의 데이터 집합을 가질 수 없습니다.
Snowflake 제한 사항
-
Snowflake에 연결할 때 OAuth 인증이 지원되지 않습니다.
Google BigQuery 제한 사항
-
열 이름에 공백을 사용할 수 없습니다.
-
열의 이름을 바꾸거나 삭제하면 테이블을 다시 만들어야 하며 데이터가 손실됩니다.
-
매개변수화된 데이터 유형은 기본값으로 설정됩니다.
-
문자열
길이: 8192
-
바이트
길이: 8192
-
숫자
정밀도: 38
배율: 9
-
bigDecimal
정밀도: 76
배율: 38
-
-
Google BigQuery 데이터 연결은 기본적으로 미국 위치로 구성됩니다. 다른 위치를 사용하려면 데이터 연결 속성에서 이를 설정해야 합니다.
-
데이터 연결을 편집합니다.
-
고급 아래에 위치라는 속성을 추가합니다.
-
속성 값을 사용하려는 위치로 설정합니다.
-
저장을 클릭합니다.
-
Databricks 제한 사항
-
테이블 및 열 이름 바꾸기는 지원되지 않습니다. 이름을 변경한 후 동기화하면 데이터가 손실됩니다.
-
Databricks 10.4만 지원됩니다.
-
SSL 활성화를 활성화해야 합니다.