Ir para conteúdo principal Pular para conteúdo complementar

Configurações de aterrisagem

Você pode definir configurações para a tarefa de dados de aterrisagem.

  • Abra a tarefa de aterrisagem e clique em Configurações na barra de ferramentas.

O diálogo Configurações: <Nome-da-tarefa> é aberto. As configurações disponíveis estão descritas abaixo.

Geral

  • Banco de dados

    Banco de dados a ser usado no destino.

    Nota informativaEssa opção não está disponível ao enviar dados para Qlik Cloud (via Amazon S3).
  • Esquema de tarefa

    Você pode alterar o nome do esquema da tarefa de dados de aterrisagem. O nome padrão é aterrisagem.

    Nota informativaEssa opção não está disponível ao enviar dados para Qlik Cloud (via Amazon S3).
  • Capitalização padrão do nome do esquema

    Você pode definir a capitalização padrão para todos os nomes de esquemas. Se seu banco de dados estiver configurado para forçar a capitalização, essa opção não terá efeito.

  • Prefixo para todas as tabelas e visualizações

    Você pode definir um prefixo para todas as tabelas e exibições criadas com essa tarefa.

    Nota informativaEssa opção não está disponível ao enviar dados para Qlik Cloud (via Amazon S3).
    Nota informativaVocê deve usar um prefixo exclusivo quando quiser usar um esquema de banco de dados em várias tarefas de dados.
  • Método de atualização

    A tarefa de aterrisagem sempre começa com carregamento total. Após a conclusão do carregamento completo, você poderá manter os dados recebidos atualizados usando um dos seguintes métodos:

    Nota informativaNão é possível alterar o método de atualização depois que a operação de preparação da tarefa de dados de aterrisagem for concluída.
    • Captura de dados de alterações (CDC)

      Os dados aterrissados permanecem atualizados usando a tecnologia CDC (captura de dados alterados). O CDC talvez não tenha suporte por todas as fontes de dados. O CDC não captura operações DDL, como renomear colunas ou alterações em metadados.

      Se os seus dados também contiverem exibições ou tabelas que não são compatíveis com CDC, dois pipelines de dados serão criados. Um pipeline com todas as tabelas compatíveis com CDC e outro pipeline com todas as outras tabelas e exibições usando a opção Recarregar e comparar como método de atualização.

    • Recarregar e comparar

      Todos os dados aterrisados são recarregados da origem. Isso é útil quando a sua origem não é compatível com CDC, mas pode ser usada com qualquer fonte de dados com suporte.

      Você pode agendar os carregamentos periodicamente.

  • Método de carregamento

    Ao replicar para um destino do Snowflake, você pode escolher um dos seguintes métodos de carregamento:

    • Carregamento em massa (o padrão)

      Se você selecionar Carregamento em massa, você poderá ajustar os parâmetros de carregamento na guia das configurações da tarefa.

    • Snowpipe Streaming

      Nota informativa

      O Snowpipe Streaming só estará disponível para seleção se as condições a seguir forem atendidas:

      • Apenas o método de atualização Captura de dados alterados (CDC) está ativado.
      • O Mecanismo de autenticação no conector Snowflake está definido como Par de chaves.
      • Se você estiver usando o Gateway Data Movement, será necessária a versão 2024.11.45 ou posterior.

      Se você selecionar Snowpipe Streaming, certifique-se de estar familiarizado com as limitações e considerações ao usar esse método. Além disso, se você selecionar o Snowpipe Streaming e depois mudar para o método de atualização Recarregar e comparar, o método de carregamento voltará automaticamente para Carregamento em massa.

    Os principais motivos para escolher o Snowpipe Streaming em vez do Carregamento em massa são os seguintes: 

    • Menos dispendioso: como o Snowpipe Streaming não usa o armazém do Snowflake, os custos operacionais devem ser significativamente mais baratos, embora isso dependa do seu caso de uso específico.

    • Latência reduzida: como os dados são transmitidos diretamente para as tabelas de destino (em vez de via preparação), a replicação da fonte de dados para o destino deve ser mais rápida.

    Nota de dicaAo usar o Snowpipe Streaming, o carregamento total inicial pode ser significativamente mais lento do que o Carregamento em massa. Para otimizar o desempenho do carregamento, especialmente ao carregar grandes conjuntos de dados, a prática recomendada é usar o Snowpipe Streaming junto com o recurso de carregamento paralelo.
  • Pasta para usar na área de preparação

    Para plataformas de dados que exigem uma área de teste (por exemplo, Databricks e Azure Synapse Analytics), você pode selecionar qual pasta usar ao aterrisar dados.

    • Pasta padrão

      Isso cria uma pasta com o nome padrão: <nome do projeto>/<nome da tarefa de dados>.

    • Pasta raiz

      Armazene dados na pasta raiz do armazenamento.

      Nota informativaEssa opção só está disponível ao enviar dados ao Qlik Cloud (via Amazon S3).
    • Pasta

      Especifique um nome de pasta a ser usado.

  • Alterar intervalo de processamento

    Você pode definir o intervalo entre o processamento das alterações da fonte.

    Nota informativaEssa opção só está disponível ao enviar dados ao Qlik Cloud (via Amazon S3).
  • Servidor proxy ao usar o gateway de Data Movement

    Nota informativaEsta opção só está disponível ao acessar destinos por meio do Data Movement gateway.

    Você pode optar por usar um servidor proxy quando o gateway de Data Movement se conecta ao data warehouse de nuvem e à área de armazenamento.

    Para obter mais informações sobre como configurar o gateway de Data Movement para usar um servidor proxy, consulte Configurando o locatário do Qlik Cloud e um servidor proxy.

    • Usar proxy para conectar-se ao armazém de dados na nuvem

      Nota informativaDisponível ao usar o Snowflake, o Google BigQuery e o Databricks.
    • Usar proxy para conectar ao armazenamento

      Nota informativaDisponível ao usar o Azure Synapse Analytics, o Amazon Redshift e o Databricks.

Upload de dados

Algumas das configurações dessa guia são relevantes apenas para plataformas-alvo específicas.

Relevante para todas as plataformas de dados, exceto Qlik Cloud e Snowflake

O tamanho máximo que um arquivo pode atingir antes de ser fechado. Arquivos menores podem ser carregados mais rapidamente (dependendo da rede) e melhorar o desempenho quando usados em conjunto com a opção de execução paralela. No entanto, geralmente é considerado uma má prática sobrecarregar o banco de dados com arquivos pequenos.

Relevante apenas para o Google BigQuery

Quando selecionado, os arquivos CSV serão compactados (usando gzip) antes de serem enviados ao Google BigQuery.

Nota informativa

Requer o Gateway Data Movement 2023.5.16 ou mais recente.

Relevante apenas para o Snowflake

Na guia Geral , você pode escolher se deseja carregar os dados para o Snowflake usando o Carregamento em massa ou o Snowpipe Streaming. Quando o Snowpipe Streaming estiver selecionado, a guia Carregamento de dados não será exibida. Quando a opção Carregamento em massa for selecionada, as configurações a seguir estarão disponíveis:

  • Tamanho máximo de arquivo (MB): Relevante para o carregamento total inicial e CDC. O tamanho máximo que um arquivo pode atingir antes de ser carregado para o destino. Se você encontrar problemas de desempenho, tente ajustar esse parâmetro.

  • Número de arquivos a serem carregados em um lote: Relevante para o carregamento total inicial apenas. O número de arquivos a serem carregados em um único lote. Se você encontrar problemas de desempenho, tente ajustar esse parâmetro.

Para obter uma descrição dos métodos de carregamento Carregamento em massa e Snowpipe Streaming, consulte Geral.

Metadados

Colunas LOB

Incluir colunas LOB e limitar o tamanho da coluna a (KB):

Você pode optar por incluir colunas LOB na tarefa e definir o tamanho máximo do LOB. LOBs maiores que o tamanho máximo serão truncados.

Nota informativaAo usar o Azure Synapse Analytics como destino, o tamanho máximo do LOB não pode exceder 7 MB.

Tabelas de controle

Selecione qual das seguintes tabelas de controle você deseja criar na plataforma de destino:

  • Status da aterrisagem: Fornece detalhes sobre a tarefa de destino atual, incluindo status da tarefa, quantidade de memória consumida pela tarefa, número de alterações ainda não aplicadas à plataforma de dados e a posição no endpoint de origem a partir do qual o Gateway Data Movement está lendo no momento.
  • Tabelas suspendidas: Fornece uma lista de tabelas suspensas e o motivo pelo qual foram suspensas.
  • Histórico de aterrisagem: Fornece informações sobre o histórico de tarefas, incluindo o número e o volume de registros processados durante uma tarefa de aterrisagem, a latência no final de uma tarefa de CDC e muito mais.
  • Histórico de DDL: contém um histórico de todas as alterações DDL compatíveis que ocorreram durante uma tarefa.

    A tabela Histórico de DDL é compatível apenas com as seguintes plataformas de destino:

    Nota informativaO Amazon Redshift , o Amazon S3, o Google Cloud Storage e o Snowflake exigem o Gateway Data Movement 2024.11.14 ou posterior.
    • Databricks

    • Microsoft Fabric
    • Amazon Redshift
    • Amazon S3
    • Google Cloud Storage
    • Snowflake

Para uma descrição detalhada de cada uma das tabelas de controle, consulte Tabelas de controle

Carregamento total

Ajuste de desempenho

  • Número máximo de tabelas para carregar em paralelo: insira o número máximo de tabelas para carregar no destino de uma só vez. O valor padrão é 5.
  • Tempo limite de consistência da transação (segundos): insira o número de segundos para aguardar o fechamento das transações abertas, antes de iniciar a operação Carregamento total. O valor padrão é 600 (10 minutos). O carregamento total começará após o valor do tempo limite ser atingido, mesmo se houver transações ainda abertas.

    Nota informativaPara replicar transações que estavam abertas quando o carregamento total foi iniciado, mas que só foram confirmadas depois que o valor do tempo limite foi atingido, é necessário recarregar as tabelas de destino.
  • Taxa de confirmação durante carregamento total: o número máximo de eventos que podem ser transferidos juntos. O valor padrão é 10.000.

Após a conclusão do carregamento total

Criar chave primária ou exclusiva: selecione esta opção se desejar atrasar a criação da chave primária ou do índice exclusivo na plataforma de dados até que o carregamento total seja concluído.

  • Para carga inicial

  • Ao mover dados de uma origem de aplicativo SaaS, você pode definir como executar o carregamento total inicial:

    Nota informativa Se você estiver usando o Gateway Data Movement para acessar sua fonte de dados, essas configurações exigirão a versão 2022.11.74 ou posterior.
    Usar dados em cache

    Esta opção permite usar dados em cache que foram lidos ao gerar metadados com a opção Verificação de dados completa selecionada.

    Isso cria menos sobrecarga em relação ao uso e cotas da API, pois os dados já são lidos da origem. Quaisquer alterações desde a verificação de dados inicial podem ser selecionadas pelo Change data capture (CDC).

    Carregar dados a partir da fonte

    Esta opção executa um novo carregamento da fonte de dados. Esta opção é útil se:

    • A verificação de metadados não foi realizada recentemente.

    • O conjunto de dados de origem é pequeno e muda com frequência, e você não deseja manter um histórico completo das alterações.

    Tratamento de erros

    Erros de dados

    Nota informativa

    O tratamento de erros de dados é compatível apenas com o método de atualização Captura de dados alterados (CDC).

    Para erros de truncamento de dados: Selecione o que você deseja que aconteça quando ocorrer um truncamento em um ou mais registros específicos. Você pode selecionar uma das seguintes situações na lista:

    • Ignorar: A tarefa continua e o erro é ignorado.
    • Suspender tabela: A tarefa continua, mas os dados da tabela com o registro de erro são movidos para um estado de erro e seus dados não são replicados
    • Parar tarefa: A tarefa é interrompida e é necessária intervenção manual.

    Para outros erros de dados: Selecione o que você deseja que aconteça quando ocorrer um erro em um ou mais registros específicos. Você pode selecionar uma das seguintes situações na lista:

    • Ignorar: A tarefa continua e o erro é ignorado.
    • Suspender tabela: A tarefa continua, mas os dados da tabela com o registro de erro são movidos para um estado de erro e seus dados não são replicados
    • Parar tarefa: A tarefa é interrompida e é necessária intervenção manual.

    Escalar o tratamento de erros quando outros erros de dados atingirem (por tabela): Marque esta caixa de seleção para escalar o tratamento de erros quando o número de erros de dados não truncados (por tabela) atingir o valor especificado. Os valores válidos são de 1 a 10.000.

    Ação de escalonamento: Escolha o que deve acontecer quando o tratamento de erros for escalado. Observe que as ações disponíveis dependem da ação selecionada na lista suspensa Para outros erros de dados descrita acima.

    • Suspender tabela (padrão): A tarefa continua, mas os dados da tabela com o registro de erro são movidos para um estado de erro e seus dados não são landed.

    • Parar tarefa: A tarefa é interrompida e é necessária intervenção manual.

    Erros de tabela

    Essa opção permite que você controle quando a política de tratamento de erros da tabela será acionada. Por padrão, depois que um erro de tabela for encontrado, a tabela será suspensa ou a tarefa será interrompida (de acordo com a ação selecionada) após três tentativas. Às vezes, um erro de tabela ocorrerá devido à manutenção planejada do aplicativo SaaS. Nesses casos, o número padrão de novas tentativas pode não ser suficiente para que a manutenção seja concluída antes que a política de tratamento de erros da tabela seja acionada. Isso também depende do intervalo de agendamento da tarefa, pois uma nova tentativa será realizada sempre que a tarefa for executada. Assim, por exemplo, se você agendar uma tarefa para ser executada a cada hora e o aplicativo SaaS for colocado offline para manutenção assim que a tarefa começar a ser executada, o padrão de três tentativas permitirá que o aplicativo SaaS fique offline por até três horas sem que a política de tratamento de erros de tabela seja acionada. Uma janela de manutenção mais longa exigiria que você aumentasse o número de novas tentativas (ou alterasse a programação) para evitar que a política de tratamento de erros da tabela fosse acionada.

    Em resumo, se você sabe que seu aplicativo SaaS passa por manutenção periódica, a prática recomendada é aumentar o número de tentativas de acordo com o agendamento para que a manutenção possa ser concluída sem que a política de tratamento de erros de tabela seja acionada.

    Nota informativa
    • Essa opção só será mostrada para tarefas configuradas com um conector de aplicativo SaaS Lite ou Standard.

    • Se você estiver usando o Gateway Data Movement, será necessária a versão 2024.11.70 ou posterior.

    Ao encontrar um erro de tabela: selecione uma das seguintes opções na lista suspensa:

    • Suspender tabela (padrão): a tarefa continua, mas os dados da tabela com o registro de erro são movidos para um estado de erro e seus dados não são replicados
    • Parar tarefa: a tarefa é interrompida e é necessária intervenção manual.

    Escalar o tratamento de erros quando os erros de tabela forem atingidos (por tabela): marque esta caixa de seleção para escalar o tratamento de erros quando o número de conflitos de aplicação (por tabela) atingir o valor especificado. Os valores válidos são de 1 a 10.000.

    Ação de escalonamento: a política de escalonamento para erros de tabela é definida como Parar tarefa e não pode ser alterada.

    Ambiental

    • Contagem máxima de repetições: Selecione esta opção e especifique o número máximo de tentativas para repetir uma tarefa quando ocorrer um erro ambiental recuperável. Depois que a tarefa for repetida o número especificado de vezes, a tarefa será interrompida e a intervenção manual será necessária.

      Para nunca repetir uma tarefa, desmarque a caixa de seleção ou especifique "0".

      Para repetir uma tarefa um número infinito de vezes, especifique "-1"

      • Intervalo entre novas tentativas (segundos): Use o contador para selecionar ou digitar o número de segundos que o sistema aguarda entre as tentativas de repetir uma tarefa.

        Os valores válidos são de 0 a 2.000.

    • Aumentar o intervalo de repetição para interrupções longas: Marque esta caixa de seleção para aumentar o intervalo de novas tentativas para interrupções longas. Quando esta opção está habilitada, o intervalo entre cada nova tentativa é duplicado, até que o Intervalo máximo de repetição seja atingido (e continue tentando de acordo com o intervalo máximo especificado).
      • Intervalo máximo de repetição (segundos): Use o contador para selecionar ou digitar o número de segundos de espera entre as tentativas de repetir uma tarefa quando a opção Aumentar intervalo de repetição para interrupções longas estiver ativada. Os valores válidos são de 0 a 2.000.

    Ajuste do processamento de alterações

    Nota informativaEsta guia só está disponível quando o método de atualização é Captura de dados alterados (CDC).

    Ajuste de descarga transacional

    • Descarregar as transações em andamento para o disco se:

      Os dados da transação geralmente são mantidos na memória até que sejam totalmente confirmados na origem ou no destino. No entanto, as transações maiores que a memória alocada ou que não forem confirmadas dentro do limite de tempo especificado serão descarregadas no disco.

      • O tamanho total da memória para todas as transações excede (MB): o tamanho máximo que todas as transações podem ocupar na memória antes de serem descarregadas no disco. O valor padrão é 1024.
      • A duração da transação excede (segundos): o tempo máximo que cada transação pode permanecer na memória antes de ser descarregada no disco. A duração é calculada a partir do momento em que o Qlik Talend Data Integration começou a capturar a transação. O valor padrão é 60.

    Ajuste em lote

    Algumas das configurações dessa guia podem não ser aplicáveis a todos os destinos ou métodos de carregamento de destino.

    Configurações que são aplicáveis a todos os destinos, exceto o Qlik Cloud e o Snowflake, quando o "Método de carregamento" é "Snowpipe Streaming".

    • Aplicar alterações em lote em intervalos:
      • Mais que: o tempo mínimo de espera entre cada aplicação de alterações em lote. O valor padrão é 1.

        Aumentar o valor de Mais que diminui a frequência com que as alterações são aplicadas ao alvo enquanto aumenta o tamanho dos lotes. Isso pode melhorar o desempenho ao aplicar alterações em bancos de dados de destino otimizados para processamento de lotes grandes.

      • Menor que: o tempo máximo de espera entre cada aplicação de alterações em lote (antes de declarar um tempo limite). Em outras palavras, a latência máxima aceitável. O valor padrão é 30. Esse valor determina o tempo máximo de espera antes de aplicar as alterações, após o valor de Mais que ter sido atingido.
    • Forçar a aplicação de um lote quando a memória de processamento exceder (MB): a quantidade máxima de memória a ser usada para pré-processamento. O valor padrão é 500 MB.

      Para o tamanho máximo do lote, defina esse valor para a maior quantidade de memória que você puder alocar para a tarefa de dados. Isso pode melhorar o desempenho ao aplicar alterações em bancos de dados de destino otimizados para processamento de lotes grandes.

    • Aplicar alterações em lote a várias tabelas simultaneamente: a seleção desta opção deve melhorar o desempenho ao aplicar alterações de diversas tabelas de origem.

      • Número máximo de tabelas: O número máximo de tabelas às quais aplicar alterações em lote simultaneamente. O padrão é cinco.

      Nota informativaEsta opção não é compatível ao usar o Google BigQuery como plataforma de dados.
    • Limite o número de alterações aplicadas por instrução de processamento de alterações para: selecione esta opção para limitar o número de alterações aplicadas em um único comando de processamento de alterações. O valor padrão é 10,000.

      Nota informativaEsta opção só é compatível ao usar o Google BigQuery como plataforma de dados.

    Configurações que são aplicáveis apenas ao Qlik Cloud e ao Snowflake, quando o "Método de carregamento" é "Snowpipe Streaming"

    • Número mínimo de alterações por transação: O número mínimo de alterações a serem incluídas em cada transação. O valor padrão é 1000.

      Nota informativa

      As alterações serão aplicadas ao alvo quando o número de alterações for igual ou superior ao valor Número mínimo de alterações por transação OU quando o valor de Tempo máximo para transações em lote antes da aplicação (segundos) descrito abaixo for atingido - o que ocorrer primeiro. Como a frequência das alterações aplicadas ao destino é controlada por esses dois parâmetros, as alterações nos registros de origem podem não ser refletidas imediatamente nos registros de destino.

    • Tempo máximo para transações em lote antes da aplicação (segundos): o tempo máximo para coletar transações em lotes antes de declarar um tempo limite. O valor padrão é 1.

    Intervalo

    Configurações ao usar conectores SAP ODP e de aplicativo SaaS (Lite)

    • Ler alterações a cada (minutos)

      Defina o intervalo entre a leitura de alterações na origem, em minutos. O intervalo válido é de 1 a 1440.

      Nota informativa

      Essa opção só está disponível quando a tarefa de dados é definida com:

      • Gateway Data Movement
      • Qualquer uma das seguintes fontes:
      • O método de atualização Captura de dados alterados (CDC).

    Configurações ao usar o conector SAP OData

    • De acordo com o intervalo de extração delta: Quando esta opção é selecionada, a tarefa de dados verifica se há alterações de acordo com o intervalo de extração Delta.

      Nota informativaO intervalo começará após cada "rodada". Uma rodada pode ser definida como o tempo que a tarefa de dados leva para ler as alterações das tabelas de origem e enviá-las para o destino (como uma única transação). A duração de uma rodada varia de acordo com o número de tabelas e alterações. Assim, se você especificar um intervalo de 10 minutos e uma rodada levar 4 minutos, então o tempo real entre as verificações de alterações será de 14 minutos.
      • Intervalo de extração delta: A frequência com que os deltas serão extraídos do seu sistema. O padrão é a cada 60 segundos.

    • Conforme programado: quando esta opção é selecionada, a tarefa de dados extrairá o delta uma vez e depois parará. Em seguida, continuará sendo executado conforme programado.

      Nota informativaEsta opção é relevante apenas se o intervalo entre os ciclos CDC for de 24 horas ou mais.

      Para obter informações sobre agendamento:

    Ajuste diverso

    • Tamanho do cache de instruções (número de instruções): O número máximo de instruções preparadas a serem armazenadas no servidor para execução posterior (ao aplicar alterações no destino). O padrão é 50. O máximo é 200.
    • DELETE e INSERT ao atualizar uma coluna de chave primária: Esta opção requer que o log suplementar completo esteja ativado no banco de dados de origem.

    Evolução do esquema

    Selecione como lidar com os seguintes tipos de alterações de DDL no esquema. Depois de alterar as configurações de evolução do esquema, você deve preparar a tarefa novamente. A tabela abaixo descreve quais ações estão disponíveis para as alterações de DDL compatíveis.

    Alteração de DDL Aplicar ao destino Ignorar Suspender tabela Interromper tarefa
    Adicionar coluna Sim Sim Sim Sim
    Renomear coluna Não Não Sim Sim
    Renomear tabela Não Não Sim Sim
    Alterar o tipo de dados da coluna Não Sim Sim Sim
    Criar tabela

    Se você usou uma Regra de seleção para adicionar conjuntos de dados que correspondem a um padrão, novas tabelas que atendem ao padrão serão detectadas e adicionadas.

    Sim Sim Não Não

    Substituição de caracteres

    Você pode substituir ou excluir caracteres de origem no banco de dados de destino e/ou substituir ou excluir caracteres de origem que não são compatíveis com um conjunto de caracteres selecionado.

    Nota informativa
    • Todos os caracteres devem ser especificados como pontos de código Unicode.

    • A substituição de caracteres também será realizada nas tabelas de controle.
    • Valores inválidos serão indicados por um triângulo vermelho no canto superior direito da célula da tabela. Passar o cursor do mouse sobre o triângulo mostrará a mensagem de erro.

    • Quaisquer transformações globais ou em nível de tabela definidas para a tarefa serão executadas após a conclusão da substituição de caracteres.

    • As ações de substituição definidas na tabela Substituir ou excluir caracteres de origem são executadas antes da ação de substituição definida na tabela Substituir ou excluir caracteres de origem não compatíveis com o conjunto de caracteres selecionado.

    • A substituição de caracteres não aceita tipos de dados LOB.

    Substituindo ou excluindo caracteres de origem

    Use a tabela Substituir ou excluir caracteres de origem para definir substituições para caracteres de origem específicos. Isso pode ser útil, por exemplo, quando a representação Unicode de um caractere é diferente nas plataformas de origem e de destino. Por exemplo, no Linux, o caractere de menos no conjunto de caracteres Shift_JIS é representado como U+2212, mas no Windows é representado como U+FF0D.

    Ações de substituição
    Até Faça isto

    Defina ações de substituição.

    1. Clique no botão Adicionar caractere acima da tabela.

    2. Especifique um caractere de origem e um caractere de destino nos campos Caractere de origem e Caractere substituto, respectivamente.

      Por exemplo, para substituir a letra "a" pela letra "e", especifique 0061 e 0065 respectivamente.

      Nota informativa

      Para excluir o caractere de origem especificado, insira 0 na coluna Caractere substituto.

    3. Repita as etapas 1 a 2 para substituir ou excluir caracteres adicionais.

    Editar o caractere de origem ou destino especificado

    Clique em no final da linha e selecione Editar.

    Excluir entradas da tabela

    Clique em no final da linha e selecione Excluir.

    Substituindo ou excluindo caracteres de origem não compatíveis com o conjunto de caracteres selecionado

    Use a tabela Caracteres de origem não compatíveis com o conjunto de caracteres para definir um único caractere de substituição para todos os caracteres não compatíveis com o conjunto de caracteres selecionado.

    Ações de substituição de caracteres não compatíveis
    Até Faça isto

    Defina ou edite uma ação de substituição.

    1. Selecione um conjunto de caracteres na lista suspensa Conjunto de caracteres da tabela.

      Quaisquer caracteres não compatíveis com o conjunto de caracteres selecionado serão substituídos no destino pelo caractere especificado na etapa 2 abaixo.

    2. Na coluna Caractere substituto, clique em qualquer lugar da coluna e especifique o caractere de substituição. Por exemplo, para substituir todos os caracteres não compatíveis pela letra "a", insira 0061.

      Nota informativa

      Para excluir todos os caracteres não compatíveis, insira 0.

    Desabilite a ação de substituição.

    Selecione a entrada em branco na lista suspensa Conjunto de caracteres.

    Mais opções

    Essas opções não são expostas na UI, pois são relevantes apenas para versões ou ambientes específicos. Consequentemente, não as defina, a menos que seja explicitamente instruído a fazê-lo pelo Suporte da Qlik ou na documentação do produto.

    Para definir uma opção, basta copiá-la no campo Adicionar nome do recurso e clicar em Adicionar. Em seguida, defina o valor ou habilite a opção de acordo com as instruções que você recebeu.

    Carregando segmentos de conjuntos de dados em paralelo

    Nota informativaEssa configuração não está disponível para origens de aplicativos SaaS e só está disponível para um subconjunto específico de bancos de dados de origem e de destino.

    Durante o carregamento total, você pode acelerar o carregamento de grandes conjuntos de dados dividindo o conjunto de dados em segmentos, que serão carregados em paralelo. As tabelas podem ser divididas por intervalos de dados, todas as partições, todas as subpartições ou partições específicas.

    Para obter mais informações, consulte Aterrisando segmentos de conjuntos de dados em paralelo.

    Programando tarefas

    Nos casos de uso a seguir, você deve definir um intervalo de programação para manter os dados de destino atualizados:

    • Acessando uma fonte de dados sem o Gateway Data Movement
    • Usando um conector de aplicativo SaaS que não suporta a configuração Ler alterações a cada
    • Ao capturar alterações de uma fonte SAP OData usando a opção Conforme agendado.

    A programação determina com que frequência os conjuntos de dados de destino serão atualizados com alterações nos conjuntos de dados de origem. Enquanto a programação determina a frequência de atualização, o tipo de conjunto de dados determina o método de atualização. Se os conjuntos de dados de origem forem compatíveis com CDC (Captura de dados de alterações), apenas as alterações nos dados de origem serão replicadas e aplicadas às tabelas de destino correspondentes. Se os conjuntos de dados de origem não forem compatíveis com CDC (por exemplo, Visualizações), as alterações serão aplicadas recarregando todos os dados de origem nas tabelas de destino correspondentes. Se alguns dos conjuntos de dados de origem forem compatíveis com CDC e outros não, duas subtarefas separadas serão criadas: uma para recarregar os conjuntos de dados que não são compatíveis com CDC e outra para capturar as alterações nos conjuntos de dados que são compatíveis com CDC. Nesse caso, para garantir a consistência dos dados, é altamente recomendável não manter o mesmo intervalo de agendamento para ambas as tarefas (se você decidir alterar a frequência de atualização no futuro).

    Para obter informações sobre os intervalos mínimos de agendamento de acordo com o tipo de fonte de dados e o nível de assinatura, consulte Intervalos mínimos de agendamento permitidos.

    Para alterar a programação:

    1. Abra seu projeto de dados e siga um destes procedimentos:

      • Na exibição de tarefas, clique em Botão de menu composto por 3 pontos horizontais. na tarefa de dados e selecione Programação.
      • Na exibição do pipeline, clique em Botão de menu composto por 3 pontos verticais. na tarefa de dados e selecione Programação.
      • Abra a tarefa de aterrisagem e clique no botão Programação da barra de ferramentas.
    2. Altere as configurações de agendamento conforme necessário e clique em OK.
    Nota informativaSe uma tarefa de dados ainda estiver em execução quando a próxima execução agendada estiver prevista para começar, as próximas execuções agendadas serão ignoradas até que a tarefa seja concluída.

    Executando uma execução perdida para uma tarefa com base no Gateway Data Movement

    Às vezes, um problema de rede pode fazer com que a conexão com o Gateway Data Movement seja perdida. Se a conexão com o Gateway Data Movement não for restaurada antes da próxima execução programada, a tarefa de dados não poderá ser executada conforme programado. Nesses casos, você pode escolher se deseja ou não executar uma tarefa imediatamente após o restabelecimento da conexão.

    As configurações padrão para todos os Gateway Data Movements são definidas no centro de atividades de Administração. Você pode substituir essas configurações para tarefas individuais, conforme descrito abaixo.

    Para fazer isso

    1. Abra seu projeto e siga um destes procedimentos:

      • Na exibição de tarefas, clique em Botão de menu composto por 3 pontos horizontais. na tarefa de dados e selecione Programação.

      • Na exibição do pipeline, clique em Botão de menu composto por 3 pontos verticais. na tarefa de dados e selecione Programação.

      • Abra a tarefa de dados e clique no botão Agendamento na barra de ferramentas.

      O diálogo Agendamento <tarefa> é aberto.

    2. Ative a opção Usar configurações personalizadas para esta tarefa.

    3. Na parte inferior do diálogo, escolha uma das seguintes opções de Executar tarefas agendadas perdidas.

      • Assim que possível e depois conforme agendado se for importante executar uma tarefa antes da próxima instância agendada

      • Conforme agendado para executar a tarefa na próxima instância agendada

    4. Salve suas configurações.

    Consulte também: Executando uma execução de tarefa após um agendamento perdido.

    Esta página ajudou?

    Se você encontrar algum problema com esta página ou seu conteúdo – um erro de digitação, uma etapa ausente ou um erro técnico – avise-nos!