Accéder au contenu principal Passer au contenu complémentaire

Amazon S3

Amazon S3 peut être utilisé comme suit :

  • Une zone intermédiaire Cloud lorsque vous utilisez des plates-formes de pipelines de données Databricks (facultatif) et Amazon Redshift (obligatoire). La zone intermédiaire cloud correspond à l'emplacement dans lequel les données et les modifications sont placés temporairement avant leur application et stockage.
  • Une cible dans une tâche de réplication Déposer temporairement les données dans un lac de données.

Autorisations nécessaires pour déposer temporairement des données

  • Vous devez disposer d'un compartiment Amazon S3 accessible depuis le poste Data Movement gateway.

    Pour plus d'informations sur l'inscription à Amazon S3, voir http://aws.amazon.com/s3/.

  • Identifiants d'accès au compartiment : Notez le nom du compartiment, la clé d'accès et la clé d'accès secrète. Vous devrez les fournir dans les paramètres du connecteur Amazon S3.
  • Autorisations d'accès au compartiment : Les autorisations d'accès au compartiment suivantes sont requises :

     
    {
    	"Version": "2012-10-17",
    	"Statement": [
    	    {
    	     "Sid": "Stmt1497347821000",
    	     "Effect": "Allow",
    	     "Action": [
                    "s3:GetBucketLocation",
                    "s3:ListBucket"
                ],
                "Resource": [
                    "arn:aws:s3:::YOUR_BUCKET_NAME"
                ]
            },
            {
                "Sid": "Stmt1497344984000",
                "Effect": "Allow",
                "Action": [
                    "s3:PutObject",
                    "s3:GetObject",
                    "s3:DeleteObject"
                ],
                "Resource": [
                    "arn:aws:s3:::YOUR_BUCKET_NAME/target_path",
                    "arn:aws:s3:::YOUR_BUCKET_NAME/target_path/*"
                ]
            }
        ]
    }
    

YOUR_BUCKET_NAME est le nom de votre compartiment et target_path est l'emplacement prévu des fichiers cibles dans votre compartiment.

Note Informations

Si le chemin cible est la racine du compartiment, il suffit de spécifier“/target_path” avec une chaîne vide.

Conditions préalables requises Qlik Data Gateway - Data Movement

Data Movement gateway se connecte à AWS via SSL. Cette connexion exige un certificat d'autorité de certification approprié pour résider sur le poste Serveur Data Movement gatewaymachine ; sinon la connexion échoue. L'objectif de ce certificat d'autorité de certification est d'authentifier la propriété du certificat du serveur AWS.

Assurez-vous que le certificat d'autorité de certification nécessaire est présent dans l'emplacement suivant sur le poste Linux :

/etc/pki/tls/certs/ca-bundle.crt

S'il n'existe pas, le plus simple consiste à copier le groupement de certificats d'un autre poste Linux.

Définition des propriétés de connexion Amazon S3

Cible de données

Passerelle de données : Sélectionnez la Data Movement gateway à utiliser pour accéder à la base de données cible.

Suivant votre cas d'utilisation, il s'agira soit de la même Data Movement gateway déployée pour déposer temporairement des données provenant de la source de données, soit d'une autre. Pour des informations sur les possibilités de déploiement de Data Movement gateway possibles, voir Cas d'utilisation courants.

Note InformationsNécessite Data Movement gateway 2023.5.10 ou une version ultérieure.

Propriétés de connexion

  • Clé d'accès : Clé d'accès de votre compartiment Amazon S3.
  • Clé secrète : Clé secrète de votre compartiment Amazon S3.
  • Nom de compartiment : Nom de votre compartiment Amazon S3.

    Note Informations

    Le paramètre de région de compartiment par défaut est à détection automatique, ce qui supprime le besoin de définir une région spécifique. Cependant, pour des questions de sécurité, pour certaines régions (par exemple, AWS GovCloud), vous devrez peut-être définir explicitement la région. Dans ce cas, vous pouvez définir le code de région via la propriété interne regionCode.

    Pour une liste des codes de région, voir la section Disponibilité des régions dans :https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Concepts.RegionsAndAvailabilityZones.html.

    Pour des instructions sur la définition de propriétés internes, voir ci-dessous.

  • Utiliser AWS PrivateLink : Sélectionnez cette option pour vous connecter à un VPC Amazon, puis spécifiez l'URL du point de terminaison VPC (par exemple, https://bucket.vpce-1a2b3c4d-5e6f.s3.us-east-1.vpce.amazonaws.com).

    Note InformationsL'option Utiliser AWS PrivateLink n'est pas prise en charge lors de l'utilisation d'un compartiment Amazon S3 comme zone intermédiaire pour une cible Databricks. Pour savoir comment configurer la connectivité à une cible Databricks, voir Databricks.

Propriétés internes

Les propriétés internes s'adressent à des cas d'utilisation spéciaux et ne sont par conséquent pas exposées dans la boîte de dialogue. Utilisez-les uniquement si Qlik Support vous le demande.

Utilisez les boutons Créer nouveau et Annuler à droite des champs pour ajouter ou supprimer des propriétés, suivant les besoins.

Nom

Nom d'affichage de la connexion.

Mappage de types de données

Le tableau suivant indique le mappage par défaut des types de données Qlik Cloud vers les types de données Amazon S3.

Note InformationsLes mappages de types de données s'appliquent uniquement si l'option Créer des fichiers de métadonnées dans le dossier cible des paramètres de la tâche Déposer temporairement les données dans un lac de données est activée.

Mappage de types de données Qlik Cloud vers Amazon S3

Types de données Amazon S3 et Qlik Cloud
Types de données Qlik Cloud Type de données cibles Amazon S3

DATE

DATE

TIME

TIME

DATETIME

DATETIME

BYTES

BYTES (longueur)

BLOB

BLOB

REAL4

REAL4 (7)

REAL8

REAL8 (14)

INT1

INT1 (3)

INT2

INT2 (5)

INT4

INT4 (10)

INT8

INT8 (19)

UINT1

UINT1 (3)

UINT2

UINT2 (5)

UINT4

UINT4 (10)

UINT8

UINT8 (20)

NUMERIC

NUMERIC (p,s)

STRING

STRING (Longueur)

WSTRING

STRING (Longueur)

CLOB

CLOB

NCLOB

NCLOB

BOOLEAN

BOOLEAN (1)

Mappage de types de données Qlik Cloud vers Parquet

Lorsque le format de fichier défini est le format Parquet, en raison du nombre limité de types de données pris en charge par Parquet, les mappages de types de données sont les suivants :

Mappages des types de données Parquet
Type de données Qlik CloudType primitif ParquetType logique

BOOLEAN

BOOLEAN

 

INT1

INT32

INT(8, true)

INT2

INT32

INT(16, true)

INT4

INT32

 

INT8

INT64

 

UINT1

INT32

INT(8, false)

UINT2

INT32

INT(16, false)

UINT4

INT64

 

UINT8

INT64

INT(64, false)

REAL4

FLOAT

 

REAL8

DOUBLE

 

NUMERIC

FIXED_LEN_BYTE_ARRAY (16)

DECIMAL (précision, échelle)

STRING

BYTE_ARRAY

STRING

WSTRING

BYTE_ARRAY

STRING

BYTES

BYTE_ARRAY

 

BLOB

BYTE_ARRAY

 

CLOB

BYTE_ARRAY

STRING

NCLOB

BYTE_ARRAY

STRING

DATE

INT32

DATE

TIME

INT32

TIME (UTC=true, unit=MILLIS)

DATETIME

INT64

TIMESTAMP (UTC=true, unit=MICROS)

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – dites-nous comment nous améliorer !