Visualizzazione dei punteggi dei modelli
La visualizzazione del modello mostra una raccolta di informazioni strategiche derivanti dal training degli algoritmi di machine learning. Le metriche e i grafici consentono di confrontare i diversi modelli all'interno di una versione dell'esperimento o tra versioni diverse dell'esperimento. Esaminare le metriche per scoprire il rendimento del modello e come perfezionarlo per migliorare il punteggio.
L'algoritmo più adatto per una versione dell'esperimento viene selezionato automaticamente ed è contrassegnato da . La valutazione si basa sul punteggio F1 nei modelli di classificazione e sul punteggio R2 nei modelli di regressione.
Se un modello è già stato distribuito in una distribuzione ML, fare clic sull'icona per aprire la distribuzione. Se una o più distribuizioni sono state create dallo stesso modello, fare clic su , quindi su per aprire la distribuzione ML desiderata.
Visualizzazione delle metriche in una tabella
Sono disponibili diverse metriche a seconda del tipo di problema di machine learning.
Procedere come indicato di seguito:
-
Nell'angolo in alto a destra della tabella Metriche modello, fare clic su .
-
Selezionare le metriche che si desidera mostrare.
Visualizzazione delle metriche del modello
È possibile utilizzare diversi filtri per visualizzare le metriche del modello. Espandere i menu a discesa situati direttamente sopra la tabella Metriche del modello per esplorare le opzioni di filtro per i modelli.
È possibile filtrare i modelli in base alla versione dell'esperimento e all'algoritmo utilizzato. Per includere le metriche del modello più performante, utilizzare il filtro Migliori performer. Il filtro Modello selezionato includerà le metriche del modello selezionato. Usare il filtro Distribuito per includere le metriche dei modelli che sono stati distribuiti.
Quando si combinano i filtri, vengono mostrate le metriche del modello che corrispondono a uno qualsiasi dei filtri applicati.
Confronto tra i punteggi di controllo e i punteggi di training
Le metriche visualizzate nella vista del modello si basano sui dati di controllo automatico utilizzati per convalidare le prestazioni del modello dopo il training. È anche possibile visualizzare le metriche di training generate durante la convalida incrociata e confrontarle con le metriche di controllo. Attivare o disattivare Mostra metriche dati di training per mostrare o nascondere le colonne per i punteggi del modello dati. Questi punteggi saranno spesso simili, ma se variano in modo significativo è probabile che ci sia un problema di perdita di dati o di overfitting.
Procedere come indicato di seguito:
-
Nella tabella Metriche del modello, selezionare un modello.
-
Fare clic su Mostra metriche dei dati di training.
Visualizzazione dei valori degli iperparametri
È possibile visualizzare i valori degli iperparametri utilizzati per il training da ciascun algoritmo. Per maggiori informazioni sugli iperparametri, vedere Ottimizzazione degli iperparametri.
Procedere come indicato di seguito:
-
Nella tabella Metriche del modello, fare clic su nella colonna Iperparametri.
I valori degli iperparametri vengono visualizzati in una finestra pop-up.
Visualizzazione della configurazione dell'esperimento
Il riquadro Configurazione esperimento mostra la configurazione della versione dell'esperimento per il modello attualmente selezionato.
Procedere come indicato di seguito:
-
Selezionare un modello in una versione dell'esperimento.
-
Fare clic su o su Visualizza configurazione per aprire il pannello Configurazione esperimento.