Gå till huvudinnehåll Gå till ytterligare innehåll

Inställningar för mellanlagring

Du kan konfigurera inställningar för datauppgiften för mellanlagring.

  • Öppna mellanlagringsuppgiften och klicka på Inställningar i verktygsfältet.

Dialogrutan Inställningar: <Uppgift-Namn> öppnar. De tillgängliga inställningarna beskrivs nedan.

Allmänt

  • Databas

    Databas som ska användas i målet.

    Anteckning om informationDet här alternativet är inte tillgängligt vid mellanlagring av data till Qlik Cloud (via Amazon S3).
  • Datauppgiftsschema

    Du kan byta namn på schemat för mellanlagring av datauppgiften. Standardnamnet är mellanlagring.

    Anteckning om informationDet här alternativet är inte tillgängligt vid mellanlagring av data till Qlik Cloud (via Amazon S3).
  • Prefix för alla tabeller och vyer

    Du kan ange prefix för alla tabeller och vyer som skapas av uppgiften.

    Anteckning om informationDet här alternativet är inte tillgängligt vid mellanlagring av data till Qlik Cloud (via Amazon S3).
    Anteckning om informationDu måste använda ett unikt prefix om du vill använda ett databasschema i flera datauppgifter.
  • Uppdateringsmetod

    Mellanlagringsuppgiften börjar alltid med en Fullständig laddning. När den Fullständiga laddningen har slutförts kan du hålla mellanlagrade data uppdaterad med någon av följande metoder:

    Anteckning om informationDet går inte att ändra uppdateringsmetod när förberedelseåtgärden för mellanlagringsdatauppgiften har slutförts.
    • Sammanställning av ändringsdata (CDC)

      Mellanlagrade data hålls uppdaterade med hjälp av tekniken CDC (Change Data Capture). CDC kanske inte stöds av alla datakällor. CDC samlar inte in DDL-åtgärder, till exempel namnbyte för kolumner eller ändringar av metadata.

      Om dina data även innehåller vyer eller tabeller som inte stöder CDC kommer två datapipelines att skapas. En pipeline med alla tabeller som stöder CDC, och en annan pipeline med alla andra tabeller och vyer som använder Ladda om och jämför som uppdateringsmetod.

    • Ladda och jämför

      Alla mellanlagrade data laddas från källan. Det här är användbart om din källa inte har stöd för CDC men kan användas med alla datakällor som stöds.

      Du kan schemalägga regelbundna laddningar.

  • Mapp att använda i mellanlagringsområdet

    För dataplattformar där ett mellanlagringsområde behövs (exempelvis Databricks och Azure Synapse Analytics) kan du välja vilken mapp som ska användas när data mellanlagras.

    • Standardmapp

      Detta skapar en mapp med standardnamnet: <projektnamn>/<dataarbetsuppgiftens namn>.

    • Rotmapp

      Lagra data i lagringens rotmapp.

      Anteckning om informationDet här alternativet är bara tillgängligt vid mellanlagring av data till Qlik Cloud (via Amazon S3).
    • Mapp

      Ange namnet på mappen som ska användas.

  • Ändra bearbetningsintervall

    Du kan ange intervallet mellan bearbetning av ändringar från källan.

    Anteckning om informationDet här alternativet är bara tillgängligt vid mellanlagring av data till Qlik Cloud (via Amazon S3).
  • Proxyserver när gateway för Data Movement används

    Du kan välja att använda en proxyserver när Dataflytt-gatewayen ansluter till molndatalagret och lagringsutrymmet.

    Mer information om att konfigurera Dataflytt-gatewayen för användning med en proxyserver finns i Ställa in Qlik Cloud-klientorganisationen och en proxyserver.

    • Använda proxy för att ansluta till molndatalager

      Anteckning om informationTillgänglig när Snowflake, Google BigQuery och Databricks används.
    • Använd proxy för att ansluta till lagringsutrymme

      Anteckning om informationTillgänglig när Azure Synapse Analytics, Amazon Redshift och Databricks används.

Uppladdning av data

  • Maximal filstorlek (MB)

    Den maximala storleken en fil kan nå innan den stängs. Mindre filer kan laddas upp snabbare (beroende på nätverket) och förbättrar prestandan när de används i kombination med alternativet parallell körning. Att belamra databasen med små filer anses emellertid generellt vara en dålig arbetsmetod.

    Anteckning om informationInställningen gäller för alla dataplattformar utom Qlik Cloud.
  • Använd komprimering

    När CSV-filerna har valts komprimeras de (med gzip) innan de laddas upp till Google BigQuery.

    Anteckning om information
    • Den här inställningen gäller bara för Google BigQuery.
    • Kräver Gateway för dataflytt 2023.5.16 eller senare.

Metadata

LOB-kolumner

  • Inkludera LOB-kolumner och begränsa kolumnstorleken till (kB):

    Du kan välja att inkludera LOB-kolumner i uppgiften och ställa in maximal LOB-storlek. LOB:er som är större än maximal storlek kommer att trunkeras.

    Anteckning om informationNär Azure Synapse Analytics används som mål är den maximala LOB-storleken 7 MB.

Kontrolltabeller

Välj vilka av följande Kontrolltabeller du vill ska skapas på målplattformen:

  • Mellanlagringsstatus: Tillhandahåller information om den aktuella mellanlagringsuppgiften inklusive uppgiftsstatus, mängden minne som förbrukas av uppgiften, antalet ändringar som ännu inte tillämpats på dataplattformen och positionen i källslutpunkten som Gateway för dataflytt läser in för tillfället.
  • Inaktiverade tabeller: Tillhandahåller en lista med inaktiverade tabeller, och anledningen till att de inaktiverades.
  • Mellanlagringshistorik: Tillhandahåller information om uppgiftshistoriken, inklusive antalet och volymen med poster som bearbetas under mellanlagringsuppgifter, latensen på slutet av en CDC-uppgift med mera.
  • DDL-historik: Innehåller en historik med alla DDL-ändringar som stöds som skedde under en uppgift.

    Anteckning om information

    DDL-historiktabellen stöds för närvarande endast på följande dataplattformar:

    • Databricks

    • Microsoft Fabric Data Warehouse

En detaljerad beskrivning av alla kontrolltabeller finns i Kontrolltabeller.

Fullständig laddning

Finjustering av prestanda

  • Maximalt antal tabeller som ska laddas parallellt: Ange det maximala antalet tabeller som ska laddas till målet samtidigt. Som standard är värdet 5.
  • Tidsgräns transaktionskonsekvens (sekunder) Ange antal sekunder att vänta på att öppna transaktioner ska stängas innan Fullständig laddning-operationen påbörjas: Standardvärdet är 600 (10 minuter). Den fullständiga laddningen kommer att påbörjas efter att värdet för överskriden tidsgräns har nåtts även om det fortfarande finns öppna transaktioner.

    Anteckning om informationFör att replikera transaktioner som var öppna när fullständig laddning startades men inte överfördes förrän efter att värdet för tidsgränsen nåddes måste du ladda om måltabellerna.
  • Allokeringsfrekvens vid fullständig laddning: Det maximala antalet händelser som kan överföras tillsammans. Som standard är värdet 10 000.

Efter slutförd fullständig laddning

Skapa primärnyckel eller unik Välj det här alternativet om du vill fördröja skapandet av primärnycklar eller unika index på målet tills efter den fullständiga laddningen har slutförts.

Felhantering

Datafel

Anteckning om information

Hantering av datafel stöds endast med uppdateringsmetoden Samla in ändrade data (CDC).

För datatrunkeringsfel: Välj vad du vill ska hända när en trunkering sker i en eller flera poster. Du kan välja något av följande från listan:

  • Ignorera: Uppgiften fortsätter och felet ignoreras.
  • Inaktivera tabell: Uppgiften fortsätter men data från tabellen med felposten flyttas till ett feltillstånd och dess data replikeras inte
  • Stoppa uppgift: Uppgiften stoppas och manuellt ingrepp krävs.

För övriga datafel: Välj vad du vill ska hända när ett fel sker i en eller flera poster. Du kan välja något av följande från listan:

  • Ignorera: Uppgiften fortsätter och felet ignoreras.
  • Inaktivera tabell: Uppgiften fortsätter men data från tabellen med felposten flyttas till ett feltillstånd och dess data replikeras inte
  • Stoppa uppgift: Uppgiften stoppas och manuellt ingrepp krävs.

Eskalera felhantering när övriga datafel når (per tabell) : Välj den här kryssrutan för att eskalera felhantering när antalet icke-trunkeringsdatafel (per tabell) når det angivna antalet: Giltiga värden är 1–10 000.

Eskaleringsåtgärd: Välj vad som ska hända när felhantering eskaleras. Observera att de tillgängliga åtgärderna beror på vilken åtgärd som väljs från listrutan För övriga datafel som beskrivs ovan.

  • Inaktivera tabell (standard): Uppgiften fortsätter men data från tabellen med felposten flyttas till ett feltillstånd och dess data landed inte.

  • Stoppa uppgift: Uppgiften stoppas och manuellt ingrepp krävs.

Tabellfel

När ett tabellfel hittas: Välj något av följande från listrutan:

  • Inaktivera tabell (standard): Uppgiften fortsätter men data från tabellen med felposten flyttas till ett feltillstånd och dess data replikeras inte
  • Stoppa uppgift: Uppgiften stoppas och manuellt ingrepp krävs.

Eskalera felhantering när tabellfel når (per tabell) : Välj den här kryssrutan för att eskalera felhantering när antalet tabellfel (per tabell) når det angivna antalet: Giltiga värden är 1–10 000.

Eskaleringsåtgärd: Eskaleringspolicyn för tabellfel är inställd till Stoppa uppgift och kan inte ändras.

Miljö

  • Maximalt antal nya försök: Välj det här alternativet och ange sedan det maximala antalet försök att utföra en uppgift igen när ett återställningsbart miljöfel inträffar. Efter att uppgiften har försökt utföras det angivna antalet gånger stoppas uppgiften och manuellt ingrepp krävs.

    För att aldrig försöka utföra uppgiften igen avmarkerar du kryssrutan eller anger "0".

    För att försöka utföra uppgiften ett oändligt antal gånger anger du "-1".

    • Mellanrum mellan försök (sekunder): Använd räknaren för att välja eller ange antalet sekunder som systemet väntar mellan försöken att utföra en uppgift.

      Giltiga värden är 0–2 000.

  • Förläng intervallet mellan försök vid långa avbrott: Välj den här kryssrutan för att förlänga intervallet mellan försök vid långa avbrott. När det här alternativet är aktiverat fördubblas intervallet mellan varje försök tills Maximalt intervall nås (och fortsätter att försöka enligt det angivna maximala intervallet).
    • Maximalt intervall mellan försök (sekunder): Använd räknaren för att välja eller ange antalet sekunder för väntetiden mellan försöken att utföra en uppgift när alternativet Förläng intervallet för nytt försök vid långa avbrott är aktiverat. Giltiga värden är 0–2 000.

Ändra finjustering av behandling

Anteckning om informationDenna flik är enbart tillgänglig med uppdateringsmetoden Samla in ändrade data (CDC).

Optimering av avlastning av transaktioner

  • Avlasta pågående transaktioner till disk om:

    Transaktionsdata behålls normalt i minnet tills det är fullständigt överfört till målet eller källan. Men transaktioner som är större än det tilldelade minnet eller inte överförs inom den angivna tidsgränsen kommer att avlastas till disk.

    • Den totala minnesstorleken för alla transaktioner överskrider (MB): Den maximala storleken som alla transaktioner kan uppta i minnet innan de avlastas till disk. Standardvärdet är 1024.
    • Transaktionen tar längre än (sekunder): Den maximala tiden som varje transaktion kan uppta i minnet innan de avlastas till disk. Varaktigheten beräknas från tiden som Data Movement gateway började registrera transaktionen. Standardvärdet är 60.

Diverse finjustering

  • Cachestorlek för satser (antal satser): Det maximala antalet förberedda satser som ska lagras på servern för senare körning (när ändringar tillämpas på målet). Standardvärdet är 50. Maxvärdet är 200.
  • DELETE och INSERT när en primärnyckelkolumn uppdateras: För det här alternativet måste full kompletterande loggning vara aktiverat i källdatabasen.

Finjustering av batch

Vissa inställningar i den här fliken

  • Använd grupperade ändringar i intervall:
    • Mer än: Den kortaste tiden att vänta mellan varje tillämpning av batchändringar. Som standard är värdet 1.

      Om värdet Mer än ökas minskar frekvensen som ändringar tillämpas med på målet samtidigt som storleken på batcherna ökar. Det kan förbättra prestandan när ändringar tillämpas på måldatabaser som är optimerade för bearbetning av stora batcher.

    • Mindre än: Den längsta tiden att vänta mellan varje tillämpning av batchändringar (innan en tidsgräns överskriden deklareras). Med andra ord, den maximala acceptabla latensen. Som standard är värdet 30. Värdet avgör den maximala tiden att vänta innan ändringarna tillämpas efter att Större än-värdet har nåtts.
  • Framtvinga tillämpning av en batch när bearbetningsminnet överskrider (MB): Den maximala mängden minne som ska användas vid förbearbetning. Som standard är värdet 500 MB.

    Om du vill ha den maximala batchstorleken ställer du in värdet till den maximala mängden minne som du kan allokera till Data Movement gateway. Det kan förbättra prestandan när ändringar tillämpas på måldatabaser som är optimerade för bearbetning av stora batcher.

  • Tillämpa batchade ändringar till flera tabeller samtidigt: Att välja det här alternativet bör förbättra prestandan när ändringar tillämpas från flera olika källtabeller.

    • Maximalt antal tabeller: Det maximala antalet tabeller som batchade ändringar kan tillämpas på samtidigt. Standardvärdet är 5.

    Anteckning om informationDet här alternativet stöds inte när Google BigQuery används som dataplattform.
  • Begränsa antalet ändringar som tillämpas per ändringsbearbetningssats till: Välj det här alternativet för att begränsa antalet ändringar som tillämpas i en enda ändringsbearbetningssats Som standard är värdet 10 000.

    Anteckning om informationDet här alternativet stöds bara när Google BigQuery används som dataplattform.
  • Maximalt antal ändringar per transaktion: Det minsta antalet ändringar som ska tas med i varje transaktion. Som standard är värdet 1000.

    Anteckning om information

    Ändringarna tillämpas i målet antingen när antalet ändringar är lika med eller större än värdet Minsta antalet ändringar per transaktion ELLER när värdet Maximal tid att samla transaktioner i batcher före tillämpning (sekunder) som beskrivs nedan nås, beroende på vilket som kommer först. Eftersom frekvensen av ändringar som tillämpas på målet styrs av dessa två parametrar kommer ändringar i källposterna eventuellt inte att återspeglas omedelbart i målposterna.

  • Maxtid att samla transaktioner i batcher före tillämpning (sekunder): maxtiden för att samla transaktioner i batcher innan en tidsgräns överskrids. Som standard är värdet 1.

Teckenbyte

Du kan ersätta eller ta bort källtecken i måldatabasen och/eller du kan ersätta eller ta bort källtecken som inte stöds av en vald teckenuppsättning.

Anteckning om information
  • Alla tecken måste anges som Unicode-kodpunkter.

  • Teckenersättning kommer också att utföras på -kontrolltabellerna.
  • Ogiltiga värden anges med en röd triangel uppe till höger på tabellcellen. Hovra med muspekaren över triangeln för att visa felmeddelandet.

  • Alla omvandlingar på tabellnivå eller globalt som definierats för uppgiften kommer att utföras efter att teckenersättningen har slutförts.

  • Ersättningsåtgärder som definierats i tabellen Ersätt eller ta bort källtecken utförs innan ersättningsåtgärden som definierats i tabellen Ersätt eller ta bort källtecken som inte stöds av en vald teckenuppsättning.

  • Teckenersättningen har inte stöd för LOB-datatyper.

Byta ut eller radera källtecken

Använd tabellen Ersätt eller ta bort källtecken för att definiera ersättningar för specifika källtecken. Detta kan exempelvis vara användbart när Unicode-representationen av ett tecken är olika på käll- och målplattformarna. Exempelvis visas minustecknet i teckenuppsättningen Shift_JIS som U+2212 på Linux, men på Windows visas det som U+FF0D.

Ersättningsåtgärder
Till Gör så här

Definiera ersättningsåtgärder

  1. Klicka på knappen Lägg till tecken ovanför tabellen.

  2. Ange ett källtecken och ett måltecken i fälten Källtecken respektive Måltecken.

    För att exempelvis ersätta bokstaven "a" med bokstaven "e" anger du 0061 respektive 0065 .

    Anteckning om information

    För att ta bort det angivna källtecknet anger du 0 i kolumnen Ersätt tecken.

  3. Upprepa steg 1–2 för att ersätta eller ta bort andra tecken.

Redigera det angivna käll- eller måltecknet

Klicka på i slutet av raden och välj Redigera.

Ta bort poster från tabellen

Klicka på i slutet av raden och välj Ta bort.

Ersätta eller ta bort källtecken som inte stöds av den valda teckenuppsättningen.

Använd tabellen Källtecken som inte stöds av teckenuppsättning för att definiera ett enda ersättningstecken för alla tecken som inte stöds av den valda teckenuppsättningen.

Ersättningsåtgärder för tecken som inte stöds
Till Gör så här

Definiera eller redigera en ersättningsåtgärd

  1. Välj en teckenuppsättning från listrutan Teckenuppsättning i tabellen.

    Alla tecken som inte stöds av den valda teckenuppsättningen kommer att ersättas i målet av tecknet som anges i steg två nedan.

  2. I kolumnen Ersätt tecken klickar du var som helst i kolumnen och anger ersättningstecknet. För att exempelvis byta ut alla tecken som inte stöds mot tecknet "a" anger du 0061.

    Anteckning om information

    För att ta bort alla tecken som inte stöds anger du 0.

Inaktivera ersättningsåtgärden.

Välj den tomma posten från listrutan Teckenuppsättning.

Fler alternativ

Dessa alternativ visas inte i gränssnittet eftersom de bara är relevanta för specifika versioner eller miljöer. Konfigurera därför inte dessa alternativ om du inte uttryckligen har blivit instruerad att göra det av Qlik Support eller om det står i produktdokumentationen.Qlik

För att ställa in ett alternativ kopierar du bara alternativet i fältet Lägg till funktionsnamn och klickar på Lägg till. Ställ sedan in värdet eller aktivera alternativet enligt de instruktioner du har fått.

SaaS-tillämpning

Anteckning om informationDen här fliken är endast tillgänglig när du flyttar data från SaaS-programkällor.
Anteckning om information
  • Alternativet Ändra bearbetningsintervall har flyttats till fliken Allmänt.
  • Alternativet Parallell körning har bytt namn till Maximalt antal tabeller som ska laddas parallellt och flyttats till fliken Fullständig laddning.
  • Alternativet LOB har bytt namn till Inkludera LOB-kolumner och begränsa kolumnstorleken till (KB) och flyttats till fliken Metadata.
  • För initial laddning

  • När data flyttas från en SaaS-programkälla kan du ställa in hur den initiala fullständiga laddningen ska utföras.

    Anteckning om informationFör de här inställningarna krävs Gateway för dataflytt version 2022.11.74 eller senare.
    Använd cachelagrade data

    Med det här alternativet kan du använda mellanlagrade data som lästes in när metadata genererades med Fullständig datasökning valt.

    Då skapas mindre overhead avseende API-användning och kvoter, eftersom data redan läses in från källan. Alla ändringar sedan den initiala datasökningen kan plockas upp av Change data capture (CDC).

    Ladda data från källa

    Med det här alternativet utförs en ny laddning från datakällan. Det här alternativet är användbart när:

    • Metadatasökningen inte utfördes nyligen.

    • Källdatauppsättningen är liten, ändras ofta och du vill inte underhålla en fullständig ändringshistorik.

  • Läs in ändringar var (minuter)

    Ställ in antal minuter för intervallet mellan inläsning av ändringar från källan. Giltigt intervall är 1 till 1 440.

    Anteckning om informationDetta alternativ är enbart tillgängligt med uppdateringsmetoden Samla in ändrade data (CDC).

Var den här sidan till hjälp för dig?

Om du hittar några fel på denna sida eller i innehållet – ett stavfel, ett steg som saknas eller ett tekniskt fel – berätta för oss så att vi kan blir bättre!