Gå till huvudinnehåll Gå till ytterligare innehåll

Systemkrav och begränsningar

I det här delavsnittet beskrivs krav och begränsningar för Qlik Cloud Data Integration.

Gå igenom kraven innan du börjar och försäkra dig om att du har allt som behövs för att komma igång.

Du kan läsa mer om arbetsflödet och systemkomponenter i Integrerar data.

Allmänna krav för Qlik Cloud Data Integration

  • Klientorganisation på Qlik Cloud med åtkomst till Qlik Cloud Data Integration. Detta kräver någon av dessa prenumerationer:

    • Qlik Cloud Data Integration för att hantera dataintegreringsprojekt.

      Qlik Cloud Data Integration finns tillgängligt i prenumerationsalternativ på tre nivåer: Standard, Premium och Enterprise. De högre utgåvorna ger mer avancerade datakällor och omvandlingar. Mer information finns i Prenumerationsalternativ för Qlik Cloud Data Integration

    • Qlik Cloud-analys-prenumeration ger åtkomst till Qlik Cloud Data Integration för att skapa QVD-filer i en Qlik Cloud-dataplattform. QVD-filerna kan användas i analysappar.

      Mer information finns i Prenumerationsalternativ för Qlik Cloud-analys.

  • Användaren behöver Användarrättighet Professional eller Full User och rollen Data Services Contributor för att skapa, hantera och köra datauppgifter i Qlik Cloud Data Integration.

  • Anteckning om Qlik Sense Enterprise SaaS GovernmentÄven om Qlik Cloud Data Integration-gränssnittet och -verktygen finns tillgängliga i Qlik Cloud Government fungerar det inte utan licens bortsett från möjligheten att skapa datapipelines.
  • När du kopplar till datakällor kan du behöva lägga till underliggande IP-adresser för Qlik Cloud i din godkända-lista.

    Mer information finns i Frilistning av domännamn och IP-adresser.

  • Kopplingar till dataprojekt används för att koppla till molndataplattformar för dataleverans och pushdown-omvandlingar. Mer information finns i Skapa en datapipeline .

  • Drivrutinerna som behövs för åtkomst till din datakälla och din målplattform måste installeras på Gateway för dataflytt-maskinen. Om du använder en Gateway för dataflytt för åtkomst till källan och en annan för åtkomst till målet ska du installera drivrutinen/drivrutinerna som behövs för åtkomst till målet på mål-Gateway för dataflytt och drivrutinen som behövs för åtkomst till din datakälla på käll-Gateway för dataflytt.

    Mer information finns i Ansluta till mål.

Krav för datalagring

  • Om du mellanlagrar data till en Amazon S3-bucket kan du generera QVD-tabeller i lagringsutrymme som hanteras av Qlik Cloud eller i Amazon S3-lagring som hanteras av dig.

  • Om du mellanlagrar data till ett molndatalager, som Snowflake eller Azure Synapse Analytics, kan du generera tabeller i samma molndatalager.

  • Om du mellanlagrar data från en molndatakälla till ett molndatalager kan du generera tabeller i samma molndatalager.

Krav för mellanlagringsområden

Du behöver ett mellanlagringsområden för att mellanlagra data till vissa molndataplattformar:

  • Azure Synapse Analytics

    Du behöver ett mellanlagringsområde för Azure Data Lake.

  • Google BigQuery

    Du behöver ett mellanlagringsområde för Google Cloud-lagring.

  • Databricks

    Du behöver ett mellanlagringsområde i Azure Data Lake Storage, Google Cloud-lagring eller Amazon S3.

Krav för att generera QVD-tabeller

  • Amazon S3-bucket för mellanlagring av data med skrivbehörighet från Data Gateway - Dataflytt-serverdatorn och läsbehörighet från Qlik Cloud-klientorganisationen.

    Anteckning om varningDu måste försäkra dig om att mellanlagringszonen är säker. Du kan använda kryptering på servern med Amazon S3-hanterade nycklar eller AWS KMS-hanterade nycklar.
  • Om du vill lagra lagringsplatsdata (QVD) på en lagringsplats som du hanterar själv snarare än Qlik-hanterad lagring behöver du en Amazon S3-bucket. Du kan använda samma Amazon S3-bucket som du använder för att mellanlagra data, men då krävs även skrivbehörighet från Qlik Cloud-klientorganisationen. Du behöver även olika mappar för mellanlagrade data och lagring.

    Anteckning om varningDu behöver se till att den hanterade lagringen är skyddad. Du kan använda kryptering på servern med Amazon S3-hanterade nycklar eller AWS KMS-hanterade nycklar.

Begränsningar

Det finns några begränsningar i hur du använder Qlik Cloud Data Integration.

Vanliga begränsningar

  • Ändringar av källdataschema stöds inte. Om du ändrar datakällans schema måste du skapa nya datatillgångar.

  • Det går inte att byta ägare för en datauppgift eller flytta en datauppgift till ett annat dataprojekt.

  • Automatisk rensning av mellanlagringsområdet stöds inte. Detta kan påverka prestanda. Vi rekommenderar att du rensar manuellt.

  • När du tillämpar ändringar i tabeller i en lagringsdatatillgång sker transaktionen inte på ett enhetligt sätt mellan de olika tabellerna i uppgiften.

  • När ett databasschema är associerat till fler än en datauppgift måste varje datauppgift använda ett unikt prefix för tabeller och vyer. Du kan ställa in prefixet i inställningarna för datauppgifter.

  • Två dataflyttningsuppgifter för gateway får inte skriva till samma tabell i mellanlagringsområdet. Bästa praxis är att använda ett separat mellanlagringsområde för varje dataflyttningsuppgift för gateway.

  • Ändringshantering stöds inte för källtabeller som inte har en primärnyckel. Detta gäller både introducerade och registrerade data.

Begränsningar vid generering av QVD-tabeller

  • Datautrymmen har alltid en standardkapacitet som begränsar lagringsdatauppgiftens kapacitet. Varje tabell som behandlas av lagringsdatauppgiften ska ha en total storlek, inklusive ändringar, som inte är större än den appstorlek (i minnet) som stöds för standardappar.

    Mer information om kapacitet i finns i Stöd för stora appar.

Begränsningar för molndatalager

Allmänna begränsningar

  • Alla datauppsättningar skrivs i samma interna schema och alla vyer skrivs i samma datatillgångsschema i lagringen. Därför är det inte tillåtet att ha två datauppsättningar med samma namn i olika scheman i en enda datauppgift för mellanlagring.

Snowflake-begränsningar

  • OAuth-autentisering stöds inte när du kopplar till Snowflake.

Google BigQuery-begränsningar

  • Det går inte att använda mellanslag i kolumnnamn.

  • Om du byter namn på eller tar bort kolumner måste tabellerna återskapas och data kommer att förloras.

  • Parametrade datayper ställs in med standardvärden:

    • Sträng

      Längd: 8192

    • Byte

      Längd: 8192

    • Numerisk

      Precision: 38

      Skala: 9

    • bigDecimal

      Precision: 76

      Skala: 38

  • Google BigQuery-datakopplingar är som standard inställda på en plats i USA. Om du vill använda en annan plats måste du ange detta i egenskaperna för datakopplingen.

    1. Redigera datakopplingen.

    2. Lägg till en egenskap med namnet plats under Avancerat.

    3. Ställ in värdet på egenskapen till platsen som du vill använda.

    4. Klicka på Spara.

Databricks-begränsningar

  • Det finns inget stöd för att byta namn på tabeller och kolumner. Vid synkning efter namnbyte förloras data.

  • Databricks Endast stöd för 10.4.

  • Enable SSL måste vara aktiverat.

Var den här sidan till hjälp för dig?

Om du hittar några fel på denna sida eller i innehållet – ett stavfel, ett steg som saknas eller ett tekniskt fel – berätta för oss så att vi kan blir bättre!