Accéder au contenu principal Passer au contenu complémentaire

Conditions et restrictions du système

Cette section décrit la configuration requise et les restrictions de Qlik Cloud Data Integration.

Avant de commencer, passez en revue les conditions pour vous assurer que vous avez tout ce dont vous avez besoin pour commencer.

Vous trouverez davantage d'informations sur le flux de travail et les composants système dans Intégration de données.

Conditions générales requises pour Qlik Cloud Data Integration

  • Client sur Qlik Cloud ayant accès à Qlik Cloud Data Integration. Cela nécessite l'un des abonnements suivants :

    • Qlik Cloud Data Integration pour pouvoir gérer des projets d'intégration de données.

      Qlik Cloud Data Integration est disponible sous forme d'options d'abonnement à trois niveaux : Standard, Premium et Enterprise. Les éditions supérieures fournissent des sources et transformations de données plus avancées. Pour plus d'informations, voir Options d'abonnement Qlik Cloud Data Integration.

    • Un abonnement Qlik Cloud Analytics permet d'accéder à Qlik Cloud Data Integration pour créer des fichiers QVD sur une plateforme de données Qlik Cloud. Les fichiers QVD peuvent être utilisés dans des applications analytiques.

      Pour plus d'informations, voir Options d'abonnement Qlik Cloud Analytics.

  • L'utilisateur nécessite Droit Professionnel ou Utilisateur complet et le rôle Contributeur Services de donnéespour pouvoir créer, gérer et exécuter des tâches de données dans Qlik Cloud Data Integration.

  • Note Qlik Sense Enterprise SaaS GovernmentMême si l'interface et les outils Qlik Cloud Data Integration sont disponibles dans Qlik Cloud Government, ils ne sont pas fonctionnels sans licence, sauf pour créer des pipelines de données.
  • Lorsque vous vous connectez à des sources de données, il se peut que vous deviez ajouter des adresses IP Qlik Cloud sous-jacentes à votre liste verte.

    Pour plus d'informations, voir Placement des noms de domaine et des adresses IP en liste verte.

  • Les connexions au projet de données permettent d'établir une connexion aux plateformes de données cloud pour la livraison de données et les transformations push-down. Pour plus d'informations, voir Création d'un pipeline de données.

  • Les pilotes requis pour accéder à votre source de données et à votre plateforme cible doivent être installés sur le poste Data Movement gateway. Si vous utilisez une Data Movement gateway pour accéder à la source et une autre pour accéder à la cible, installez le ou les pilotes nécessaires pour accéder à la cible sur la Data Movement gateway cible et le pilote nécessaire pour accéder à votre source de données sur la Data Movement gateway source.

    Pour plus d'informations, voir Connexion à des cibles.

Conditions requises pour le stockage de données

  • Si vous déposez temporairement des données dans un compartiment Amazon S3, vous pouvez générer des tables QVD dans le stockage géré par Qlik Cloud ou dans le stockage Amazon S3 que vous gérez.

  • Si vous déposez temporairement des données dans un entrepôt de données cloud tel que Snowflake ou Azure Synapse Analytics, vous pouvez générer des tables dans le même entrepôt de données cloud.

  • Si vous déposez temporairement des données depuis une source de données cloud dans un entrepôt de données cloud, vous pouvez générer des tables dans le même entrepôt de données cloud.

Conditions requises pour les zones intermédiaires

Vous avez besoin d'une zone intermédiaire pour les données du dépôt temporaire dans des plateformes de données cloud :

  • Azure Synapse Analytics

    Vous avez besoin d'une zone intermédiaire Azure Data Lake Storage.

  • Google BigQuery

    Vous devez avoir une zone intermédiaire Google Cloud Storage.

  • Databricks

    Vous avez besoin d'une zone intermédiaire dans Azure Data Lake Storage, Google Cloud Storage ou Amazon S3.

Conditions requises pour générer des tables QVD

  • Compartiment Amazon S3 pour les données de zone intermédiaire avec accès en écriture depuis le poste du serveur Passerelle de données - Déplacement des données et accès en lecture depuis le client Qlik Cloud.

    Note AvertissementVous devez vous assurer que la zone Destination est sécurisée. Vous pouvez utiliser un chiffrement côté serveur via les clés gérées par Amazon S3 ou les clés gérées par AWS KMS.
  • Si vous souhaitez stocker des données Stockage (QVD) dans votre propre stockage géré plutôt que dans le stockage géré par Qlik, il vous faut un compartiment Amazon S3. Vous pouvez utiliser le même compartiment Amazon S3 que celui utilisé pour les données de dépôt temporaire, mais, dans ce cas, il faut également un accès en écriture depuis le client Qlik Cloud. Vous devez également utiliser des dossiers distincts pour les données de dépôt temporaire et le stockage.

    Note AvertissementVous devez vous assurer que le stockage géré est sûr. Vous pouvez utiliser un chiffrement côté serveur via les clés gérées par Amazon S3 ou les clés gérées par AWS KMS.

Limitations

Votre mode d'utilisation de Qlik Cloud Data Integration présente certaines limitations.

Restrictions communes

  • Les modifications apportées au schéma de la source de données ne sont pas prises en charge. Si vous apportez des modifications au schéma de la source de données, vous devez créer d'autres ressources de données.

  • Il n'est pas possible de modifier le propriétaire d'une tâche de données ni de déplacer une tâche de données vers un autre projet de données.

  • Le nettoyage automatique de la zone Destination n'est pas pris en charge. Cela peut affecter les performances. Nous recommandons d'effectuer des nettoyages manuels.

  • Lors de l'application de modifications à des tables d'une ressource de données Stockage, il n'existe pas de cohérence transactionnelle entre les différentes tables de la tâche.

  • Lorsqu'un schéma de base de données est associé à plus d'une tâche de données, chaque tâche de données doit utiliser un préfixe unique pour les tables et les vues. Vous pouvez définir le préfixe dans les paramètres de tâche de données.

  • Deux tâches de déplacement de données ne doivent pas écrire dans la même table de la zone de dépôt temporaire. La meilleure pratique consiste à utiliser une zone de dépôt temporaire distincte pour chaque passerelle de déplacement de données.

  • La gestion des modifications n'est pas prise en charge pour les tables source sans clé primaire. Cela s'applique aux données intégrées et enregistrées.

Restrictions lors de la génération de tables QVD

  • Les espaces de données fonctionnent toujours avec une capacité standard qui limite la capacité de la tâche de données Stockage. La taille totale de chaque table traitée par la tâche de données Stockage, changements compris, doit être au maximum égale à la taille d'application (en mémoire) prise en charge pour les applications standard.

    Pour plus d'informations sur la capacité, voir Prise en charge des applications volumineuses.

Restrictions des entrepôts de données cloud

Limitations générales

  • Tous les ensembles de données sont écrits dans le même schéma interne et toutes les vues sont écrites dans le même schéma de ressource de données du stockage. Il n'est par conséquent pas autorisé d'avoir deux ensembles de données portant le même nom dans différents schémas dans une seule tâche de données de dépôt temporaire.

Limitations de Snowflake

  • L'authentification OAuth n'est pas prise en charge lors de la connexion à Snowflake.

Limitations de Google BigQuery

  • Il n'est pas possible d'utiliser des espaces dans les noms de colonne.

  • Si vous renommez ou supprimer des colonnes, les tables doivent être recréées et les données sont perdues.

  • Les types de données paramétrés sont définis avec des valeurs par défaut :

    • Chaîne

      Longueur : 8192

    • Octets

      Longueur : 8192

    • Numérique

      Précision : 38

      Échelle : 9

    • bigDecimal

      Précision : 76

      Échelle : 38

  • Par défaut, l'emplacement des connexions de données Google BigQuery est configuré sur les États-Unis. Si vous souhaitez utiliser un autre emplacement, vous devez le définir dans les propriétés de la connexion de données.

    1. Éditez la connexion de données.

    2. Ajoutez une propriété nommée Emplacement sous Avancé.

    3. Définissez la valeur de la propriété sur l'emplacement que vous souhaitez utiliser.

    4. Cliquez sur Enregistrer.

Limitations de Databricks

  • L'attribution de nouveaux noms aux tables et aux colonnes n'est pas prise en charge. La synchronisation après une attribution de nouveau nom entraîne la perte des données.

  • Seul Databricks 10.4 est pris en charge.

  • Enable SSL doit être activé.

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – dites-nous comment nous améliorer !