Ir para conteúdo principal Pular para conteúdo complementar

Download de relatórios de treinamento de ML

Você pode baixar relatórios de treinamento para modelos treinados em um experimento. O relatório de treinamento inclui detalhes abrangentes sobre os processos que treinaram um modelo e, opcionalmente, outros modelos no experimento de ML. Você pode baixar relatórios de treinamento de experimentos de ML e implantações de ML aos quais você tem acesso. Os relatórios de treinamento estão em formato PDF.

Os administradores também podem baixar relatórios de treinamento no centro de atividades do Administração. Para obter mais informações, consulte Download de relatórios de treinamento de ML como administrador.

Relatório de treinamento de ML

Relatório de treinamento de experimentos

Casos de uso

Com relatórios de treinamento de modelos, você pode:

  • Aprofunde-se nos processos que treinam seus modelos, por exemplo, para fins de auditoria.

  • Compartilhe facilmente detalhes sobre o treinamento de modelos com usuários fora do Qlik Cloud.

Gerar um relatório de treinamento

A partir de um experimento

  1. Abra um experimento de ML.

  2. Acesse a guia Modelos.

  3. Selecione um modelo.

  4. No canto superior direito, clique em Baixar relatório de treinamento.

  5. Na caixa de diálogo, opcionalmente em Incluir informações sobre todos os modelos do experimento.

    Quando ativada, essa configuração gera um relatório expandido contendo informações sobre todos os modelos treinados no experimento.

  6. Se necessário, clique em Visualizar para visualizar o relatório sem fazer seu download. Dependendo do seu navegador, talvez seja necessário fazer isso mais de uma vez.

  7. Clique em Baixar.  O relatório é gerado e salvo em sua pasta local Downloads.

Você também pode gerar um relatório de treinamento clicando em Menu de três pontos em um modelo e selecionando Baixar relatório de treinamento.

A partir de uma implementação de ML

  1. Abra uma implementação de ML.

  2. Acesse a guia Modelos implementáveis.

  3. Em Todos os modelos na implementação, clique em Menu de três pontos ao lado de um modelo.

  4. Selecione Baixar relatório de treinamento.

  5. Na caixa de diálogo, opcionalmente em Incluir informações sobre todos os modelos do experimento.

    Quando ativada, essa configuração gera um relatório expandido contendo informações sobre todos os modelos treinados no experimento. Consulte Versões completas e focadas.

  6. Se necessário, clique em Visualizar para visualizar o relatório sem fazer seu download. Dependendo do seu navegador, talvez seja necessário fazer isso mais de uma vez.

  7. Clique em Baixar. O relatório é gerado e salvo em sua pasta local Downloads.

Como administrador

Os administradores também podem baixar relatórios de treinamento no centro de atividades do Administração. Para obter mais informações, consulte Download de relatórios de treinamento de ML como administrador.

O que está incluído em um relatório de treinamento

O relatório de treinamento descreve em detalhes as informações a seguir. Alguns detalhes podem estar presentes apenas se você baixar a versão completa do relatório de treinamento. Para obter mais informações, consulte Versões completas e focadas.

  • Quem criou o experimento

  • Quando os experimentos e o modelo foram treinados

  • Localização e nome dos recursos usados no treinamento

  • Quantas versões e modelos o experimento tem

  • Os algoritmos usados para treinar modelos

  • Detalhes sobre os conjuntos de dados de treinamento usados, como a quantidade de dados que eles contêm

  • Processamento que foi realizado nos dados de treinamento antes e durante o treinamento

  • Métricas de modelos para dados de treinamento e de retenção

  • Dados de hiperparâmetros

Versões completas e focadas

Ao fazer download de um relatório de treinamento, o usuário tem a opção de ativar uma configuração chamada Incluir informações sobre todos os modelos no experimento. Essa configuração controla se é gerada a versão completa ou focada do relatório.

Com a configuração Incluir informações sobre todos os modelos no experimento ativada, a versão completa do relatório é gerada. Esse relatório contém informações adicionais sobre outros modelos treinados no experimento.

Por outro lado, o relatório focado contém apenas informações sobre o modelo selecionado. Informações sobre outros modelos utilizados no experimento não estão incluídas.

Interpretação dos termos do relatório de treinamento

Ao analisar relatórios de treinamento, supõe-se que você tenha conhecimento dos termos técnicos mencionados. A maioria dos termos é explicada na documentação de ajuda do Qlik Predict.

A tabela a seguir fornece definições do conteúdo no relatório, juntamente com tópicos úteis de ajuda.

Compreensão dos termos do relatório de treinamento
Termo Significado Conteúdo associado
Lotes

Refere-se a quantos lotes de modelos foram treinados no experimento. Ao usar a otimização inteligente de modelos, os modelos são treinados em lotes iterativos para melhorar o desempenho e os resultados do treinamento.

Por outro lado, uma versão de experimento que não usa otimização inteligente de modelos (ou seja, otimização manual) treina modelos em um único lote.

-
EDA Refere-se à análise exploratória de dados. Esse é um termo para um conjunto automático de processamento que é realizado nos dados de treinamento antes do início do treinamento do modelo. Configuração do experimento
Codificação, Impacto codificado, One-hot encoded Refere-se ao processamento aplicado aos recursos de dados para torná-los mais utilizáveis no treinamento de modelos. Codificação categórica
Engenharia de recursos Refere-se a vários processos que resultam em novos recursos. Esses podem ser novos recursos expostos como entidades totalmente novas e também recursos criados por meio de codificação e processamento de texto livre.

Criando novas colunas de recursos

Engenharia automática de recursos

Codificação categórica

Validação cruzada quíntupla Refere-se à validação cruzada que é realizada nos modelos após cada iteração de treinamento. Dados de retenção e validação cruzada
Otimização Refere-se a se o treinamento do modelo utilizou otimização inteligente ou manual. Trabalhando com otimização de modelo
Taxa de amostragem Refere-se a quanto do conjunto de dados de treinamento foi usado para treinar o modelo.

Ao utilizar a otimização inteligente de modelos, os modelos podem, por vezes, ser treinados com menos de 100% do conjunto de dados original, nomeadamente no caso de conjuntos de dados muito grandes.

Em contrapartida, uma versão experimental que não utiliza otimização inteligente do modelo — ou seja, otimização manual — utiliza sempre 100% do conjunto de dados de treinamento.

Amostragem de dados de treinamento
Divisão Refere-se a uma divisão automática do conjunto de dados de treinamento em dados de treinamento e de retenção. O conjunto de dados retido não é usado para treinar o modelo, mas sim para testar o desempenho do modelo. Dados de retenção e validação cruzada
U=Substituição do usuário Refere-se à ação do usuário de alterar manualmente o tipo de recurso do tipo de recurso identificado automaticamente. Alterando os tipos de recursos

Permissões

Permissões para baixar a partir de um experimento de ML

Para exportar um relatório de treinamento de um experimento de ML, você precisa ter acesso de visualização ao experimento. Em outras palavras, o senhor deve atender aos seguintes requisitos:

  • Direito de usuário Professional ou Full User no locatário do Qlik Cloud.

  • Uma das seguintes opções:

    • Função de segurança integrada do Automl Experiment Contributor

    • Função de segurança integrada do Automl Deployment Contributor

    • Permissão Gerenciar experimentos de ML definida como Permitido por meio da função User Default ou de função de segurança personalizada

    • Permissão Gerenciar implementações de ML definida como Permitido por meio da função User Default ou de função de segurança personalizada

    • Gerenciar experimentos e implementações de ML com permissão de administrador definida como Permitido por meio de função de segurança personalizada

  • Para experimentos em espaços compartilhados, uma das seguintes funções de espaço no espaço:

    • Proprietário (do espaço)

    • Pode gerenciar

    • Pode editar

    • Pode exibir

Permissões para baixar a partir de uma implementação de ML

Para exportar um relatório de treinamento de uma implementação de ML, você precisa ter acesso de visualização à implementação e ao experimento a partir do qual ela foi implementada.

Em outras palavras, o senhor deve atender aos seguintes requisitos:

  • Direito de usuário Professional ou Full User no locatário do Qlik Cloud.

  • Uma das seguintes opções:

    • Função de segurança integrada do Automl Experiment Contributor

    • Função de segurança integrada do Automl Deployment Contributor

    • Permissão Gerenciar experimentos de ML definida como Permitido por meio da função User Default ou de função de segurança personalizada

    • Permissão Gerenciar implementações de ML definida como Permitido por meio da função User Default ou de função de segurança personalizada

    • Gerenciar experimentos e implementações de ML com permissão de administrador definida como Permitido por meio de função de segurança personalizada

  • Para experimentos em espaços compartilhados, uma das seguintes funções de espaço no espaço:

    • Proprietário (do espaço)

    • Pode gerenciar

    • Pode editar

    • Pode exibir

  • Para implementações em espaços compartilhados, uma das seguintes funções de espaço no espaço:

    • Proprietário (do espaço)

    • Pode gerenciar

    • Pode editar

    • Pode exibir

  • Para implementações em espaços gerenciados, uma das seguintes funções de espaço no espaço:

    • Proprietário (do espaço)

    • Pode gerenciar

    • Pode contribuir

    • Pode exibir

Limitações

  • Relatórios de treinamento apenas estão disponíveis para experimentos de ML criados no final de julho de 2025 e posteriormente.

Esta página ajudou?

Se você encontrar algum problema com esta página ou seu conteúdo – um erro de digitação, uma etapa ausente ou um erro técnico – avise-nos!