Zu Hauptinhalt springen Zu ergänzendem Inhalt springen

Amazon S3

Amazon S3 kann wie folgt verwendet werden:

  • Als Cloud-Bereitstellungsbereich, wenn Sie mit Daten-Pipeline-Plattformen in Databricks (optional) und Amazon Redshift (erforderlich) arbeiten. Daten und Änderungen werden im Cloud-Bereitstellungsbereich bereitgestellt, bevor sie angewendet und gespeichert werden.
  • Ein Ziel in einer „Daten in Data Lake bereitstellen“-Replikationsaufgabe

Für Bereitstellungsdaten erforderliche Berechtigungen

  • Sie müssen über einen Amazon S3-Bucket verfügen, auf den über den Data Movement Gateway-Computer zugegriffen werden kann.

    Informationen zum Registrieren für Amazon S3 finden Sie unter http://aws.amazon.com/s3/.

  • Bucket-Anmeldeinformationen: Notieren Sie sich den Bucket-Namen, den -Zugriffsschlüssel und den geheimen Zugriffsschlüssel. Sie müssen diese Informationen im Amazon S3-Konnektor eingeben.
  • Bucket-Zugriffsberechtigungen: Die folgenden Bucket-Zugriffsberechtigungen sind erforderlich:

     
    {
    	"Version": "2012-10-17",
    	"Statement": [
    	    {
    	     "Sid": "Stmt1497347821000",
    	     "Effect": "Allow",
    	     "Action": [
                    "s3:GetBucketLocation",
                    "s3:ListBucket"
                ],
                "Resource": [
                    "arn:aws:s3:::YOUR_BUCKET_NAME"
                ]
            },
            {
                "Sid": "Stmt1497344984000",
                "Effect": "Allow",
                "Action": [
                    "s3:PutObject",
                    "s3:GetObject",
                    "s3:DeleteObject"
                ],
                "Resource": [
                    "arn:aws:s3:::YOUR_BUCKET_NAME/target_path",
                    "arn:aws:s3:::YOUR_BUCKET_NAME/target_path/*"
                ]
            }
        ]
    }
    

Dabei ist YOUR_BUCKET_NAME der Name des Buckets und target_path der vorgesehene Speicherort der Zieldateien im Bucket.

Informationshinweis

Wenn der Zielpfad die Bucket-Root ist, geben Sie einfach “/target_path” mit einem leeren String ein.

Voraussetzungen für Qlik Data Gateway - Data Movement

Data Movement Gateway stellt über SSL eine Verbindung zu AWS her. Dafür muss ein entsprechende ZS-Zertifikat auf dem Data Movement Gateway-Rechner vorhanden sein; andernfalls schlägt die Verbindung fehl. Das Ziel des ZS-Zertifikats ist die Authentifizierung des Besitzes des AWS-Server-Zertifikats.

Stellen Sie sicher, dass das benötigte ZS-Zertifikat an folgendem Speicherort auf dem Linux-Rechner vorhanden ist:

/etc/pki/tls/certs/ca-bundle.crt

Falls dies nicht der Fall ist, ist die einfachste Lösung, das Zertifikat-Bundle von einem anderen Linux-Rechner zu kopieren.

Einrichten von Amazon S3-Verbindungseigenschaften

Datenziel

Daten-Gateway: Wählen Sie das Data Movement Gateway aus, das Sie für den Zugriff auf die Zieldatenbank verwenden möchten.

Abhängig von Ihrem Anwendungsfall ist dies das gleiche Data Movement Gateway, das zum Bereitstellen von Daten aus der Datenquelle bereitgestellt wurde, oder ein anderes. Informationen zu den Bereitstellungsmöglichkeiten für Data Movement Gateway finden Sie unter Häufige Anwendungsfälle.

InformationshinweisErfordert Data Movement Gateway 2023.5.10 oder höher.

Verbindungseigenschaften

  • Zugriffschlüssel: Der Zugriffsschlüssel für Ihren Amazon S3-Bucket.
  • Geheimer Schlüssel: Der geheime Schlüssel für Ihr Amazon S3-Bucket.
  • Bucket-Name: Der Name Ihres Amazon S3-Buckets.

    Informationshinweis

    Die Standardeinstellung für die Bucket-Region ist automatischer Erkennung. Damit ist es nicht erforderlich, eine spezifische Region festzulegen. Aus Sicherheitsgründen kann es aber für einige Regionen (z. B. AWS GovCloud) erforderlich sein, die Region ausdrücklich festzulegen. In diesem Fall können Sie den Regionscode in der internen Eigenschaft regionCode festlegen.

    Eine Liste der Regionscodes finden Sie im Abschnitt Verfügbarkeit in Regionen unter:https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Concepts.RegionsAndAvailabilityZones.html

    Anweisungen zum Festlegen von internen Eigenschaften finden Sie unten.

  • AWS PrivateLink verwenden: Wählen Sie diese Option, um eine Verbindung zu einer Amazon VPC herzustellen und geben Sie dann die VPC-Endpunkt-URL an (z. B. https://bucket.vpce-1a2b3c4d-5e6f.s3.us-east-1.vpce.amazonaws.com).

    InformationshinweisDie Option AWS PrivateLink verwenden wird nicht unterstützt, wenn ein Amazon S3-Bucket als Bereitstellungsbereich für ein Databricks-Ziel verwendet wird. Informationen zum Einrichten der Verbindung zu einem Databricks-Ziel finden Sie unter Databricks.

Interne Eigenschaften

Interne Eigenschaften sind für besondere Anwendungsfälle vorgesehen und werden daher nicht im Dialogfenster angezeigt. Sie sollten sie nur verwenden, wenn Sie vom Qlik Support dazu angewiesen werden.

Verwenden Sie die Schaltflächen Neu erstellen und Abbrechen rechts neben den Feldern, um Eigenschaften wie erforderlich hinzuzufügen oder zu entfernen.

Name

Der Anzeigename für die Verbindung.

Datentypzuordnung

Die folgende Tabelle zeigt die Standardzuordnung von Qlik Cloud-Datentypen zu Amazon S3-Zieldatentypen.

InformationshinweisBeachten Sie, dass die Datentypzuordnung nur relevant ist, wenn die Option Metadatendateien im Zielordner erstellen in den Aufgabeneinstellungen für „Daten in Data Lake bereitstellen“ aktiviert ist.

Zuordnung von Qlik Cloud-Datentypen zu Amazon S3

Qlik Cloud und Amazon S3-Datentypen
Qlik Cloud DatentypenAmazon S3-Zieldatentypen

DATE

DATE

TIME

TIME

DATETIME

DATETIME

BYTES

BYTES (Länge)

BLOB

BLOB

REAL4

REAL4 (7)

REAL8

REAL8 (14)

INT1

INT1 (3)

INT2

INT2 (5)

INT4

INT4 (10)

INT8

INT8 (19)

UINT1

UINT1 (3)

UINT2

UINT2 (5)

UINT4

UINT4 (10)

UINT8

UINT8 (20)

NUMERIC

NUMERIC (p,s)

STRING

STRING (Länge)

WSTRING

STRING (Länge)

CLOB

CLOB

NCLOB

NCLOB

BOOLEAN

BOOLEAN (1)

Zuordnung von Qlik Cloud-Datentypen zu Parquet

Wenn Parquet als Dateiformat eingerichtet ist, haben die Datentypzuordnungen aufgrund der beschränkten Anzahl der von Parquet unterstützen Datentypen die folgende Form:

Parquet-Datentypzuordnungen
Qlik Cloud-DatentypPrimitiver Parquet-TypLogischer Typ

BOOLEAN

BOOLEAN

 

INT1

INT32

INT(8, true)

INT2

INT32

INT(16, true)

INT4

INT32

 

INT8

INT64

 

UINT1

INT32

INT(8, false)

UINT2

INT32

INT(16, false)

UINT4

INT64

 

UINT8

INT64

INT(64, false)

REAL4

FLOAT

 

REAL8

DOUBLE

 

NUMERIC

FIXED_LEN_BYTE_ARRAY (16)

DECIMAL (Genauigkeit, Dezimalstellen)

STRING

BYTE_ARRAY

STRING

WSTRING

BYTE_ARRAY

STRING

BYTES

BYTE_ARRAY

 

BLOB

BYTE_ARRAY

 

CLOB

BYTE_ARRAY

STRING

NCLOB

BYTE_ARRAY

STRING

DATE

INT32

DATE

TIME

INT32

TIME (UTC=true, unit=MILLIS)

DATETIME

INT64

TIMESTAMP (UTC=true, unit=MICROS)

Hat diese Seite Ihnen geholfen?

Wenn Sie Probleme mit dieser Seite oder ihren Inhalten feststellen – einen Tippfehler, einen fehlenden Schritt oder einen technischen Fehler –, teilen Sie uns bitte mit, wie wir uns verbessern können!