Ir para conteúdo principal Pular para conteúdo complementar

Exibindo as pontuações do modelo

A exibição do modelo mostra uma coleção de insights do treinamento de algoritmos de aprendizado de máquina. Métricas e gráficos permitem comparar diferentes modelos dentro de uma versão experimental ou entre diferentes versões experimentais. Revise as métricas para descobrir o desempenho do modelo e como você pode refinar o modelo para melhorar a pontuação.

O algoritmo de melhor ajuste para uma versão de experimento é selecionado automaticamente e marcado com Troféu. A classificação é baseada na pontuação F1 em modelos de classificação e na pontuação R2 em modelos de regressão.

Se um modelo já tiver sido implementado em uma implementação de ML, clique no ícone Implementação de ML para abrir essa implementação. Se uma ou mais implementações tiverem sido criadas do mesmo modelo, clique em Implementação de ML e depois em Abrir para abrir a implementações de ML desejada.

A exibição do modelo com tabela de métricas e visualizações de gráfico permite que você analise o desempenho do modelo

A exibição de modelo do AutoML.

Mostrando métricas na tabela

Métricas diferentes estão disponíveis dependendo do tipo de problema de aprendizado de máquina.

  1. No canto superior direito da tabela Métricas do modelo, clique em Seletor de coluna.

  2. Selecione as métricas que deseja mostrar.

Exibindo as métricas de modelo

Existem vários filtros que você pode usar ao exibir as métricas de modelo. Expanda os menus suspensos localizados diretamente acima da tabela Métricas de modelo para explorar as opções de filtro para seus modelos.

Você pode filtrar modelos por versão experimental e algoritmo usados. Para incluir as métricas do modelo de melhor desempenho, use o filtro Melhores desempenhos. O filtro Modelo selecionado incluirá métricas de modelo para o modelo que você selecionou. Use o filtro Implementado para incluir métricas para modelos que foram implementados.

Ao combinar filtros, serão mostradas as métricas de modelo que correspondem a qualquer um dos filtros aplicados.

Revisando um modelo

Tabela de métricas de modelo com resultados filtrados por "Melhores desempenhos" e modelos usando o algoritmo CatBoost.

Comparando pontuações de retenção e pontuações de treinamento

As métricas exibidas na exibição do modelo são baseadas nos dados de retenção automática usados para validar o desempenho do modelo após o treinamento. Você também pode exibir as métricas de treinamento que foram geradas durante a validação cruzada e comparar com as métricas de retenção. Ative ou desative Mostrar métricas de dados de treinamento para mostrar colunas para as pontuações do modelo de dados de treinamento. Essas pontuações geralmente são semelhantes, mas se variarem significativamente, é provável que haja um problema com vazamento ou sobreajuste de dados.

  1. Na tabela Métricas de modelo, selecione um modelo.

  2. Clique em Mostrar métricas de dados de treinamento.

Tabela de métricas de modelo com métricas de dados de retenção e treinamento

Mostrar métricas de dados de treinamento

Visualizando os valores de hiperparâmetros

Você pode exibir os valores de hiperparâmetros usados para treinamento por cada algoritmo. Para obter mais informações sobre hiperparâmetros, consulte Otimização de hiperparâmetros.

  • Na tabela Métricas de modelo, clique em Hiperparâmetros na coluna Hiperparâmetros.

    Os valores de hiperparâmetros são mostrados em uma janela pop-up.

Ver valores de hiperparâmetros

Veja os valores de hiperparâmetros na tabela de métricas de modelo.

Exibindo a configuração do experimento

O painel Configuração do experimento mostra a configuração da versão experimental para o modelo atualmente selecionado.

  1. Selecione um modelo em uma versão experimental.

  2. Clique em Painel de configuração ou em Visualizar configuração para abrir o painel Configuração do experimento.

Configuração do experimento

Painel Configuração do experimento.

Saiba mais

Esta página ajudou?

Se você encontrar algum problema com esta página ou seu conteúdo - um erro de digitação, uma etapa ausente ou um erro técnico - informe-nos como podemos melhorar!