기본 콘텐츠로 건너뛰기 보완적인 콘텐츠로 건너뛰기

Amazon S3

Amazon S3은 다음으로 사용할 수 있습니다.

  • Databricks(선택 사항) 및 Amazon Redshift(필수) 데이터 파이프라인 플랫폼으로 작업할 때 클라우드 스테이징 영역으로 사용. 클라우드 스테이징 영역에서 데이터와 변경 내용이 적용 및 저장되기 전에 스테이징됩니다.
  • "데이터 레이크의 데이터 랜딩" 복제 작업의 대상으로 사용.

랜딩 데이터에 필요한 권한

  • Data Movement gateway 컴퓨터에서 액세스할 수 있는 Amazon S3 버킷이 있어야 합니다.

    Amazon S3 등록에 대한 자세한 내용은 http://aws.amazon.com/s3/를 참조하십시오.

  • 버킷 액세스 자격 증명: 버킷 이름, 액세스 키, 비밀 액세스 키를 기록해 두십시오. Amazon S3 커넥터 설정에서 제공해야 합니다.
  • 버킷 액세스 권한: 다음 버킷 액세스 권한이 필요합니다.

     
    {
    	"Version": "2012-10-17",
    	"Statement": [
    	    {
    	     "Sid": "Stmt1497347821000",
    	     "Effect": "Allow",
    	     "Action": [
                    "s3:GetBucketLocation",
                    "s3:ListBucket"
                ],
                "Resource": [
                    "arn:aws:s3:::YOUR_BUCKET_NAME"
                ]
            },
            {
                "Sid": "Stmt1497344984000",
                "Effect": "Allow",
                "Action": [
                    "s3:PutObject",
                    "s3:GetObject",
                    "s3:DeleteObject"
                ],
                "Resource": [
                    "arn:aws:s3:::YOUR_BUCKET_NAME/target_path",
                    "arn:aws:s3:::YOUR_BUCKET_NAME/target_path/*"
                ]
            }
        ]
    }
    

여기서 YOUR_BUCKET_NAME은 버킷의 이름이고 target_path는 버킷에 있는 대상 파일의 의도된 위치입니다.

정보 메모

대상 경로가 버킷 루트인 경우 빈 문자열로 “/target_path”를 지정하면 됩니다.

Qlik 데이터 게이트웨이 - 데이터 이동 전제 조건

Data Movement gateway는 SSL을 사용하여 AWS에 연결합니다. 이를 위해서는 Data Movement gateway 컴퓨터에 상주하는 적절한 CA 인증서가 필요합니다. 그렇지 않으면 연결이 실패합니다. CA 인증서의 목적은 AWS 서버 인증서의 소유권을 인증하는 것입니다.

필요한 CA 인증서가 Linux 컴퓨터의 다음 위치에 있는지 확인합니다.

/etc/pki/tls/certs/ca-bundle.crt

존재하지 않는 경우 가장 간단한 솔루션은 다른 Linux 컴퓨터에서 인증서 번들을 복사하는 것입니다.

Amazon S3 연결 속성 설정

데이터 대상

데이터 게이트웨이: 대상 데이터베이스에 액세스하는 데 사용할 데이터 이동 게이트웨이를 선택합니다.

사용 사례에 따라 이는 데이터 소스에서 데이터를 랜딩하기 위해 동일하거나 다른 데이터 이동 게이트웨이가 배포되어 있습니다. 가능한 데이터 이동 게이트웨이 배포 가능성에 대한 자세한 내용은 일반적인 사용 사례를 참조하십시오.

정보 메모데이터 이동 게이트웨이 2023.5.10 이상이 필요합니다.

연결 속성

  • 액세스 키: Amazon S3 버킷의 액세스 키입니다.
  • 비밀 키: Amazon S3 버킷의 비밀 키입니다.
  • 버킷 이름: Amazon S3 버킷의 이름입니다.

    정보 메모

    기본 버킷 지역 설정은 자동 감지이므로 특정 지역을 설정할 필요가 없습니다. 그러나 보안 고려 사항으로 인해 일부 지역(예: AWS GovCloud)의 경우 지역을 명시적으로 설정해야 할 수도 있습니다. 이러한 경우에는 regionCode 내부 속성을 사용하여 지역 코드를 설정할 수 있습니다.

    지역 코드 목록은 다음의 지역 가용성 섹션을 참조하십시오.https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Concepts.RegionsAndAvailabilityZones.html

    내부 속성 설정에 대한 지침은 아래를 참조하십시오.

  • AWS PrivateLink 사용: Amazon VPC에 연결하려면 이를 선택하고 VPC 종료 지점 URL(예: https://bucket.vpce-1a2b3c4d-5e6f.s3.us-east-1.vpce.amazonaws.com)을 지정합니다.

    정보 메모Amazon S3 버킷을 Databricks 대상의 스테이징 영역으로 사용할 때는 AWS PrivateLink 사용 옵션이 지원되지 않습니다. Databricks 대상에 대한 연결 설정에 대한 자세한 내용은 Databricks를 참조하십시오.

내부 속성

내부 속성은 특별한 사용 사례를 위한 것이므로 대화 상자에 표시되지 않습니다. Qlik 지원 팀에서 지시한 경우에만 사용해야 합니다.

필드 오른쪽에 있는 새로 만들기취소 버튼을 사용하여 필요에 따라 속성을 추가하거나 제거합니다.

이름

연결의 표시 이름입니다.

데이터 유형 매핑

다음 표에서는 Qlik Cloud 데이터 유형에서 Amazon S3 데이터 유형으로의 기본 매핑을 보여 줍니다.

정보 메모데이터 유형 매핑은 "데이터 레이크의 데이터 랜딩" 작업 설정에서 대상 폴더에 메타데이터 파일 만들기 옵션이 활성화된 경우에만 관련됩니다.

Qlik Cloud 데이터 유형에서 Amazon S3로 매핑

Qlik Cloud 및 Amazon S3 데이터 유형
Qlik Cloud 데이터 유형Amazon S3 대상 데이터 유형

DATE

DATE

TIME

TIME

DATETIME

DATETIME

BYTES

BYTES(길이)

BLOB

BLOB

REAL4

REAL4(7)

REAL8

REAL8(14)

INT1

INT1(3)

INT2

INT2(5)

INT4

INT4(10)

INT8

INT8(19)

UINT1

UINT1(3)

UINT2

UINT2(5)

UINT4

UINT4(10)

UINT8

UINT8(20)

NUMERIC

NUMERIC(p,s)

STRING

STRING(길이)

WSTRING

STRING(길이)

CLOB

CLOB

NCLOB

NCLOB

BOOLEAN

BOOLEAN(1)

Qlik Cloud 데이터 유형에서 Parquet로 매핑

Parquet가 파일 형식으로 설정된 경우 Parquet에서 지원하는 데이터 유형의 수가 제한되어 있으므로 데이터 유형 매핑은 다음과 같습니다.

Parquet 데이터 유형 매핑
Qlik Cloud 데이터 유형Parquet 기본 유형논리적 유형

BOOLEAN

BOOLEAN

 

INT1

INT32

INT(8, true)

INT2

INT32

INT(16, true)

INT4

INT32

 

INT8

INT64

 

UINT1

INT32

INT(8, false)

UINT2

INT32

INT(16, false)

UINT4

INT64

 

UINT8

INT64

INT(64, false)

REAL4

FLOAT

 

REAL8

DOUBLE

 

NUMERIC

FIXED_LEN_BYTE_ARRAY(16)

DECIMAL(정밀도, 배율)

STRING

BYTE_ARRAY

STRING

WSTRING

BYTE_ARRAY

STRING

BYTES

BYTE_ARRAY

 

BLOB

BYTE_ARRAY

 

CLOB

BYTE_ARRAY

STRING

NCLOB

BYTE_ARRAY

STRING

DATE

INT32

DATE

TIME

INT32

TIME(UTC=true, 단위=MILLIS)

DATETIME

INT64

TIMESTAMP(UTC=true, 단위=MICROS)

이 페이지가 도움이 되었습니까?

이 페이지 또는 해당 콘텐츠에서 오타, 누락된 단계 또는 기술적 오류와 같은 문제를 발견하면 개선 방법을 알려 주십시오!