Inställningar för mellanlagring
Du kan konfigurera inställningar för datauppgiften för mellanlagring.
-
Öppna mellanlagringsuppgiften och klicka på Inställningar i verktygsfältet.
Dialogrutan Inställningar: <Uppgift-Namn> öppnar. De tillgängliga inställningarna beskrivs nedan.
Allmänt
-
Databas
Databas som ska användas i målet.
Anteckning om informationDet här alternativet är inte tillgängligt vid mellanlagring av data till Qlik Cloud (via Amazon S3). -
Uppgiftsschema
Du kan byta namn på schemat för mellanlagring av datauppgiften. Standardnamnet är mellanlagring.
Anteckning om informationDet här alternativet är inte tillgängligt vid mellanlagring av data till Qlik Cloud (via Amazon S3). -
Prefix för alla tabeller och vyer
Du kan ange prefix för alla tabeller och vyer som skapas av uppgiften.
Anteckning om informationDet här alternativet är inte tillgängligt vid mellanlagring av data till Qlik Cloud (via Amazon S3).Anteckning om informationDu måste använda ett unikt prefix om du vill använda ett databasschema i flera datauppgifter. -
Uppdateringsmetod
Mellanlagringsuppgiften börjar alltid med en Fullständig laddning. När den Fullständiga laddningen har slutförts kan du hålla mellanlagrade data uppdaterad med någon av följande metoder:
Anteckning om informationDet går inte att ändra uppdateringsmetod när förberedelseåtgärden för mellanlagringsdatauppgiften har slutförts.-
Sammanställning av ändringsdata (CDC)
Mellanlagrade data hålls uppdaterade med hjälp av tekniken CDC (Change Data Capture). CDC kanske inte stöds av alla datakällor. CDC samlar inte in DDL-åtgärder, till exempel namnbyte för kolumner eller ändringar av metadata.
Om dina data även innehåller vyer eller tabeller som inte stöder CDC kommer två datapipelines att skapas. En pipeline med alla tabeller som stöder CDC, och en annan pipeline med alla andra tabeller och vyer som använder Ladda om och jämför som uppdateringsmetod.
-
Ladda och jämför
Alla mellanlagrade data laddas från källan. Det här är användbart om din källa inte har stöd för CDC men kan användas med alla datakällor som stöds.
Du kan schemalägga regelbundna laddningar.
-
-
Mapp att använda i mellanlagringsområdet
För dataplattformar där ett mellanlagringsområde behövs (exempelvis Databricks och Azure Synapse Analytics) kan du välja vilken mapp som ska användas när data mellanlagras.
-
Standardmapp
Detta skapar en mapp med standardnamnet: <projektnamn>/<dataarbetsuppgiftens namn>.
-
Rotmapp
Lagra data i lagringens rotmapp.
Anteckning om informationDet här alternativet är bara tillgängligt vid mellanlagring av data till Qlik Cloud (via Amazon S3). -
Mapp
Ange namnet på mappen som ska användas.
-
-
Ändra bearbetningsintervall
Du kan ange intervallet mellan bearbetning av ändringar från källan.
Anteckning om informationDet här alternativet är bara tillgängligt vid mellanlagring av data till Qlik Cloud (via Amazon S3). -
Proxyserver när gateway för Data Movement används
Anteckning om informationDet här alternativet är bara tillgängligt när du kommer åt data via Data Movement gateway.Du kan välja att använda en proxyserver när Dataflytt-gatewayen ansluter till molndatalagret och lagringsutrymmet.
Mer information om att konfigurera Dataflytt-gatewayen för användning med en proxyserver finns i Ställa in Qlik Cloud-klientorganisationen och en proxyserver.
-
Använda proxy för att ansluta till molndatalager
Anteckning om informationTillgänglig när Snowflake, Google BigQuery och Databricks används. -
Använd proxy för att ansluta till lagringsutrymme
Anteckning om informationTillgänglig när Azure Synapse Analytics, Amazon Redshift och Databricks används.
-
Uppladdning av data
-
Maximal filstorlek (MB)
Den maximala storleken en fil kan nå innan den stängs. Mindre filer kan laddas upp snabbare (beroende på nätverket) och förbättrar prestandan när de används i kombination med alternativet parallell körning. Att belamra databasen med små filer anses emellertid generellt vara en dålig arbetsmetod.
Anteckning om informationInställningen gäller för alla dataplattformar utom Qlik Cloud. -
Använd komprimering
När CSV-filerna har valts komprimeras de (med gzip) innan de laddas upp till Google BigQuery.
Anteckning om information- Den här inställningen gäller bara för Google BigQuery.
- Kräver Gateway för dataflytt 2023.5.16 eller senare.
Metadata
LOB-kolumner
-
Inkludera LOB-kolumner och begränsa kolumnstorleken till (kB):
Du kan välja att inkludera LOB-kolumner i uppgiften och ställa in maximal LOB-storlek. LOB:er som är större än maximal storlek kommer att trunkeras.
Anteckning om informationNär Azure Synapse Analytics används som mål är den maximala LOB-storleken 7 MB.
Kontrolltabeller
Välj vilka av följande kontrolltabeller du vill ska skapas på målplattformen:
- Mellanlagringsstatus: Tillhandahåller information om den aktuella mellanlagringsuppgiften inklusive uppgiftsstatus, mängden minne som förbrukas av uppgiften, antalet ändringar som ännu inte tillämpats på dataplattformen och positionen i källslutpunkten som Gateway för dataflytt läser in för tillfället.
- Inaktiverade tabeller: Tillhandahåller en lista med inaktiverade tabeller och anledningen till att de inaktiverades.
- Mellanlagringshistorik: Tillhandahåller information om uppgiftshistoriken, inklusive antalet och volymen med poster som bearbetas under mellanlagringsuppgifter, latensen på slutet av en CDC-uppgift med mera.
-
DDL-historik: Innehåller en historik med alla DDL-ändringar som stöds som skedde under en uppgift.
Anteckning om informationDDL-historiktabellen stöds endast på följande målplattformar:
-
Databricks
- Microsoft Fabric
-
Se Kontrolltabeller för detaljerad beskrivning av alla kontrolltabeller.
Fullständig laddning
Finjustering av prestanda
- Maximalt antal tabeller som ska laddas parallellt: ange det maximala antalet tabeller som ska laddas till målet samtidigt. Som standard är värdet 5.
-
Tidsgräns transaktionskonsekvens (sekunder): ange antalet sekunder för att vänta på att öppna transaktioner ska stängas innan åtgärden fullständig laddning påbörjas. Standardvärdet är 600 (10 minuter). Den fullständiga laddningen kommer att påbörjas efter att värdet för överskriden tidsgräns har nåtts även om det fortfarande finns öppna transaktioner.
Anteckning om informationFör att replikera transaktioner som var öppna när fullständig laddning startades men inte överfördes förrän efter att värdet för tidsgränsen nåddes måste du ladda om måltabellerna. - Allokeringsfrekvens vid fullständig laddning: det maximala antalet händelser som kan överföras tillsammans. Som standard är värdet 10 000.
Efter slutförd fullständig laddning
Skapa primär nyckel eller unik: välj det här alternativet om du vill fördröja skapandet av primärnycklar eller unika index på målet tills efter den fullständiga laddningen har slutförts.
För initial laddning
När data flyttas från en SaaS-programkälla kan du ställa in hur den initiala fullständiga laddningen ska utföras.
Använd cachelagrade data |
Med det här alternativet kan du använda mellanlagrade data som lästes in när metadata genererades med Fullständig datasökning valt. Då skapas mindre overhead avseende API-användning och kvoter, eftersom data redan läses in från källan. Alla ändringar sedan den initiala datasökningen kan plockas upp av Change data capture (CDC). |
Ladda data från källa |
Med det här alternativet utförs en ny laddning från datakällan. Det här alternativet är användbart när:
|
Felhantering
Datafel
Hantering av datafel stöds endast med uppdateringsmetoden Samla in ändrade data (CDC).
För datatrunkeringsfel: Välj vad du vill ska hända när en trunkering sker i en eller flera poster. Du kan välja något av följande från listan:
- Ignorera: Uppgiften fortsätter och felet ignoreras.
- Inaktivera tabell: Uppgiften fortsätter men data från tabellen med felposten flyttas till ett feltillstånd och dess data replikeras inte
- Stoppa uppgift: Uppgiften stoppas och manuellt ingrepp krävs.
För övriga datafel: Välj vad du vill ska hända när ett fel sker i en eller flera poster. Du kan välja något av följande från listan:
- Ignorera: Uppgiften fortsätter och felet ignoreras.
- Inaktivera tabell: Uppgiften fortsätter men data från tabellen med felposten flyttas till ett feltillstånd och dess data replikeras inte
- Stoppa uppgift: Uppgiften stoppas och manuellt ingrepp krävs.
Eskalera felhantering när övriga datafel når (per tabell) : Välj den här kryssrutan för att eskalera felhantering när antalet icke-trunkeringsdatafel (per tabell) når det angivna antalet: Giltiga värden är 1–10 000.
Eskaleringsåtgärd: Välj vad som ska hända när felhantering eskaleras. Observera att de tillgängliga åtgärderna beror på vilken åtgärd som väljs från listrutan För övriga datafel som beskrivs ovan.
-
Inaktivera tabell (standard): Uppgiften fortsätter men data från tabellen med felposten flyttas till ett feltillstånd och dess data landed inte.
- Stoppa uppgift: Uppgiften stoppas och manuellt ingrepp krävs.
Tabellfel
När ett tabellfel hittas: Välj något av följande från listrutan:
- Inaktivera tabell (standard): Uppgiften fortsätter men data från tabellen med felposten flyttas till ett feltillstånd och dess data replikeras inte
- Stoppa uppgift: Uppgiften stoppas och manuellt ingrepp krävs.
Eskalera felhantering när tabellfel når (per tabell) : Välj den här kryssrutan för att eskalera felhantering när antalet tabellfel (per tabell) når det angivna antalet: Giltiga värden är 1–10 000.
Eskaleringsåtgärd: Eskaleringspolicyn för tabellfel är inställd till Stoppa uppgift och kan inte ändras.
Miljö
-
Maximalt antal nya försök: Välj det här alternativet och ange sedan det maximala antalet försök att utföra en uppgift igen när ett återställningsbart miljöfel inträffar. Efter att uppgiften har försökt utföras det angivna antalet gånger stoppas uppgiften och manuellt ingrepp krävs.
För att aldrig försöka utföra uppgiften igen avmarkerar du kryssrutan eller anger "0".
För att försöka utföra uppgiften ett oändligt antal gånger anger du "-1".
-
Mellanrum mellan försök (sekunder): Använd räknaren för att välja eller ange antalet sekunder som systemet väntar mellan försöken att utföra en uppgift.
Giltiga värden är 0–2 000.
-
- Förläng intervallet mellan försök vid långa avbrott: Välj den här kryssrutan för att förlänga intervallet mellan försök vid långa avbrott. När det här alternativet är aktiverat fördubblas intervallet mellan varje försök tills Maximalt intervall nås (och fortsätter att försöka enligt det angivna maximala intervallet).
- Maximalt intervall mellan försök (sekunder): Använd räknaren för att välja eller ange antalet sekunder för väntetiden mellan försöken att utföra en uppgift när alternativet Förläng intervallet för nytt försök vid långa avbrott är aktiverat. Giltiga värden är 0–2 000.
Ändra finjustering av behandling
Optimering av avlastning av transaktioner
-
Avlasta pågående transaktioner till disk om:
Transaktionsdata behålls normalt i minnet tills det är fullständigt överfört till målet eller källan. Men transaktioner som är större än det tilldelade minnet eller inte överförs inom den angivna tidsgränsen kommer att avlastas till disk.
- Total minnesstorlek för alla transaktioner överskrider (MB): den maximala storleken som alla transaktioner kan uppta i minnet innan de avlastas till disk. Standardvärdet är 1024.
- Transaktionens varaktighet överskrider (sekunder): den maximala tiden som varje transaktion kan uppta i minnet innan de avlastas till disk. Varaktigheten beräknas från tiden som Qlik Talend Data Integration började registrera transaktionen. Standardvärdet är 60.
Finjustering av batch
Vissa inställningar i den här fliken
Inställningar som gäller för alla mål utom Qlik Cloud:
- Använd grupperade ändringar i intervall:
-
Mer än: den kortaste tiden att vänta mellan varje tillämpning av batchändringar. Som standard är värdet 1.
Om värdet Mer än ökas minskar frekvensen som ändringar tillämpas med på målet samtidigt som storleken på batcherna ökar. Det kan förbättra prestandan när ändringar tillämpas på måldatabaser som är optimerade för bearbetning av stora batcher.
- Mindre än: den längsta tiden att vänta mellan varje tillämpning av batchändringar (innan en tidsgräns överskriden deklareras). Med andra ord, den maximala acceptabla latensen. Som standard är värdet 30. Värdet avgör den maximala tiden att vänta innan ändringarna tillämpas efter att Större än-värdet har nåtts.
-
Framtvinga tillämpning av en batch när bearbetningsminnet överskrider (MB): den maximala mängden minne som ska användas vid förbearbetning. Som standard är värdet 500 MB.
Om du vill ha den maximala batchstorleken ställer du in det här värdet till den maximala mängden minne som du kan allokera till datauppgiften. Det kan förbättra prestandan när ändringar tillämpas på måldatabaser som är optimerade för bearbetning av stora batcher.
-
Tillämpa batchade ändringar till flera tabeller samtidigt: att välja det här alternativet bör förbättra prestandan när ändringar tillämpas från flera olika källtabeller.
-
Maximalt antal tabeller: Det maximala antalet tabeller som batchade ändringar kan tillämpas på samtidigt. Standardvärdet är 5.
Anteckning om informationDet här alternativet stöds inte när Google BigQuery används som dataplattform. -
-
Begränsa antalet ändringar som tillämpas per ändringsbearbetningssats till: välj det här alternativet för att begränsa antalet ändringar som tillämpas i en enda ändringsbearbetningssats Som standard är värdet 10 000.
Anteckning om informationDet här alternativet stöds bara när Google BigQuery används som dataplattform.
Inställningar som endast gäller för Qlik Cloud:
-
Maximalt antal ändringar per transaktion: Det minsta antalet ändringar som ska tas med i varje transaktion. Som standard är värdet 1000.
Anteckning om informationÄndringarna tillämpas i målet antingen när antalet ändringar är lika med eller större än värdet Minsta antalet ändringar per transaktion ELLER när värdet Maximal tid att samla transaktioner i batcher före tillämpning (sekunder) som beskrivs nedan nås, beroende på vilket som kommer först. Eftersom frekvensen av ändringar som tillämpas på målet styrs av dessa två parametrar kommer ändringar i källposterna eventuellt inte att återspeglas omedelbart i målposterna.
- Maxtid att samla transaktioner i batcher före tillämpning (sekunder): maxtiden för att samla transaktioner i batcher innan en tidsgräns överskrids. Som standard är värdet 1.
Intervall
-
Läs in ändringar var (minuter)
Ställ in antal minuter för intervallet mellan inläsning av ändringar från källan. Giltigt intervall är 1 till 1 440.
Anteckning om informationDet här alternativet är bara tillgängligt i när:
- Använda Gateway för dataflytt
- Mellanlagring av data från SaaS-applikationskällor
- Uppgiften definieras med uppdateringsmetoden för Sammanställning av ändringsdata (CDC)
Diverse finjustering
- Cachestorlek för satser (antal satser): Det maximala antalet förberedda satser som ska lagras på servern för senare körning (när ändringar tillämpas på målet). Standardvärdet är 50. Maxvärdet är 200.
-
DELETE och INSERT när en primärnyckelkolumn uppdateras: För det här alternativet måste full kompletterande loggning vara aktiverat i källdatabasen.
Teckenbyte
Du kan ersätta eller ta bort källtecken i måldatabasen och/eller du kan ersätta eller ta bort källtecken som inte stöds av en vald teckenuppsättning.
Alla tecken måste anges som Unicode-kodpunkter.
- Teckenersättning kommer också att utföras på -kontrolltabellerna.
Ogiltiga värden anges med en röd triangel uppe till höger på tabellcellen. Hovra med muspekaren över triangeln för att visa felmeddelandet.
Alla omvandlingar på tabellnivå eller globalt som definierats för uppgiften kommer att utföras efter att teckenersättningen har slutförts.
Ersättningsåtgärder som definierats i tabellen Ersätt eller ta bort källtecken utförs innan ersättningsåtgärden som definierats i tabellen Ersätt eller ta bort källtecken som inte stöds av en vald teckenuppsättning.
- Teckenersättningen har inte stöd för LOB-datatyper.
Byta ut eller radera källtecken
Använd tabellen Ersätt eller ta bort källtecken för att definiera ersättningar för specifika källtecken. Detta kan exempelvis vara användbart när Unicode-representationen av ett tecken är olika på käll- och målplattformarna. Exempelvis visas minustecknet i teckenuppsättningen Shift_JIS som U+2212 på Linux, men på Windows visas det som U+FF0D.
Till | Gör så här |
---|---|
Definiera ersättningsåtgärder |
|
Redigera det angivna käll- eller måltecknet | Klicka på i slutet av raden och välj Redigera. |
Ta bort poster från tabellen | Klicka på i slutet av raden och välj Ta bort. |
Ersätta eller ta bort källtecken som inte stöds av den valda teckenuppsättningen.
Använd tabellen Källtecken som inte stöds av teckenuppsättning för att definiera ett enda ersättningstecken för alla tecken som inte stöds av den valda teckenuppsättningen.
Till | Gör så här |
---|---|
Definiera eller redigera en ersättningsåtgärd |
|
Inaktivera ersättningsåtgärden. | Välj den tomma posten från listrutan Teckenuppsättning. |
Fler alternativ
Dessa alternativ visas inte i gränssnittet eftersom de bara är relevanta för specifika versioner eller miljöer. Konfigurera därför inte dessa alternativ om du inte uttryckligen har blivit instruerad att göra det av Qlik Support eller om det står i produktdokumentationen.Qlik
För att ställa in ett alternativ kopierar du bara alternativet i fältet Lägg till funktionsnamn och klickar på Lägg till. Ställ sedan in värdet eller aktivera alternativet enligt de instruktioner du har fått.
Schemalägga CDC-uppgifter när du arbetar utan Gateway för dataflytt
Gateway för dataflytt stöds inte med en Qlik Talend Cloud Starter-prenumeration och är ett tillval med andra prenumerationsnivåer. När du arbetar utan Gateway för dataflytt håller du måldata uppdaterade genom att ställa in ett schemaläggningsintervall. Schemat avgör hur ofta måldatauppsättningen ska uppdateras med ändringar i källdatauppsättningen. Medan schemat bestämmer uppdateringsfrekvensen, bestämmer typen av datauppsättning uppdateringsmetoden. Om källdatauppsättningarna stöder CDC (Change Data Capture) kommer endast ändringarna i källdata att replikeras och tillämpas på motsvarande måltabeller. Om källdatauppsättningarna inte har stöd för CDC (till exempel Vyer) kommer ändringar att tillämpas genom att ladda alla källdata till motsvarande måltabeller. Om vissa av källdatauppsättningarna stöder CDC och andra inte, skapas två separata underuppgifter: en för att ladda om de datauppsättningar som inte stöder CDC, och den andra för att registrera ändringarna i datauppsättningar som stöder CDC. I det här fallet rekommenderas det starkt att du ställer in samma schema för båda deluppgifterna för att säkerställa dataenhetlighet.
Information om minsta schemaläggningsintervall beroende på typ av datakälla och prenumerationsnivå finns i Minsta tillåtna schemaläggningsintervall.
Så här ändrar du schemaläggningen:
Öppna ditt dataprojekt och gör sedan något av följande:
- I uppgiftsvyn klickar du på på datauppgiften och väljer Schemaläggning.
- I pipeline-vyn klickar du på på datauppgiften och väljer Schemaläggning.
- Öppna mellanlagringsuppgiften och klicka på knappen Schemaläggning i verktygsfältet.
- Ändra schemaläggningsinställningarna efter behov och klicka sedan på OK.