Exibindo as pontuações do modelo
A exibição do modelo mostra uma coleção de insights do treinamento de algoritmos de aprendizado de máquina. Métricas e gráficos permitem comparar diferentes modelos dentro de uma versão experimental ou entre diferentes versões experimentais. Revise as métricas para descobrir o desempenho do modelo e como você pode refinar o modelo para melhorar a pontuação.
O algoritmo de melhor ajuste para uma versão de experimento é selecionado automaticamente e marcado com . A classificação é baseada na pontuação F1 em modelos de classificação e na pontuação R2 em modelos de regressão.
Se um modelo já tiver sido implementado em uma implementação de ML, clique no ícone para abrir essa implementação. Se uma ou mais implementações tiverem sido criadas do mesmo modelo, clique em e depois em para abrir a implementações de ML desejada.
Mostrando métricas na tabela
Métricas diferentes estão disponíveis dependendo do tipo de problema de aprendizado de máquina.
Faça o seguinte:
-
No canto superior direito da tabela Métricas do modelo, clique em .
-
Selecione as métricas que deseja mostrar.
Exibindo as métricas de modelo
Existem vários filtros que você pode usar ao exibir as métricas de modelo. Expanda os menus suspensos localizados diretamente acima da tabela Métricas de modelo para explorar as opções de filtro para seus modelos.
Você pode filtrar modelos por versão experimental e algoritmo usados. Para incluir as métricas do modelo de melhor desempenho, use o filtro Melhores desempenhos. O filtro Modelo selecionado incluirá métricas de modelo para o modelo que você selecionou. Use o filtro Implementado para incluir métricas para modelos que foram implementados.
Ao combinar filtros, serão mostradas as métricas de modelo que correspondem a qualquer um dos filtros aplicados.
Comparando pontuações de retenção e pontuações de treinamento
As métricas exibidas na exibição do modelo são baseadas nos dados de retenção automática usados para validar o desempenho do modelo após o treinamento. Você também pode exibir as métricas de treinamento que foram geradas durante a validação cruzada e comparar com as métricas de retenção. Ative ou desative Mostrar métricas de dados de treinamento para mostrar colunas para as pontuações do modelo de dados de treinamento. Essas pontuações geralmente são semelhantes, mas se variarem significativamente, é provável que haja um problema com vazamento ou sobreajuste de dados.
Faça o seguinte:
-
Na tabela Métricas de modelo, selecione um modelo.
-
Clique em Mostrar métricas de dados de treinamento.
Visualizando os valores de hiperparâmetros
Você pode exibir os valores de hiperparâmetros usados para treinamento por cada algoritmo. Para obter mais informações sobre hiperparâmetros, consulte Otimização de hiperparâmetros.
Faça o seguinte:
-
Na tabela Métricas de modelo, clique em na coluna Hiperparâmetros.
Os valores de hiperparâmetros são mostrados em uma janela pop-up.
Exibindo a configuração do experimento
O painel Configuração do experimento mostra a configuração da versão experimental para o modelo atualmente selecionado.
Faça o seguinte:
-
Selecione um modelo em uma versão experimental.
-
Clique em ou em Visualizar configuração para abrir o painel Configuração do experimento.