Vai al contenuto principale Passa a contenuto complementare

Revisione e perfezionamento delle versioni del modello

Al termine della prima versione del training del modello, analizzare le metriche dei modelli risultanti e configurare nuove versioni dell'esperimento fino a ottenere i risultati desiderati.

Quando si esegue la versione dell'esperimento, viene mostrata la visualizzazione del modello, dove è possibile analizzare le metriche del modello risultante. È possibile passare alla visualizzazione schema o a quella dati in qualsiasi momento. Se si desidera tornare alla visualizzazione del modello, fare clic sull'icona della visualizzazione del modello Oggetto.

La prima versione del training è completa quando le metriche vengono popolate nella tabella Metriche modello e l'icona di un trofeo Trofeo viene visualizzata accanto al modello superiore.

Nota informaticaAutoML migliora continuamente i propri processi per l'addestramento di modelli. Pertanto, si può notare che le metriche del modello e altri dettagli mostrati nelle immagini su questa pagina non sono identiche alle proprie quando si completano questi esercizi.

Analisi del modello

Nella visualizzazione del modello, è possibile vedere che l'algoritmo superiore ha un punteggio con l'icona di un trofeo Trofeo. Ciò significa che è il modello più performante in base al punteggio F1.

Visualizzazione del modello come modello v1 con le prestazioni migliori.

Visualizzazione del modello che ne mostra le metriche.
  1. Nell'angolo in alto a destra della tabella, fare clic sul pulsante del selettore colonne Colonne. Qui, è possibile visualizzare tutte le metriche disponibili per il problema posto, e aggiungerle o rimuoverle in base alle necessità. Selezionare qualsiasi metrica che si desidera mostrare nella tabella o lasciare quelle predefinite.

    Utilizzare lo strumento di selezione della colonna per aggiungere o rimuovere le metriche nella tabella Metriche modello

    Strumento di selezione della colonna nella tabella Metriche modello
  2. Nella tabella Metriche modello, fare clic sul filtro a comparsa Algoritmo e selezionare l'algoritmo corrispondente al modello con le migliori prestazioni.

  3. Attivare Mostra metriche dati di training.

    Ora è possibile vedere le metriche del training di convalida incrociata e confrontarle con le metriche di controllo. Per ogni colonna della metrica holdout, c'è una corrispondente colonna "train" per la metrica equivalente dai dati di training.

    Tabella Metriche modelli con visualizzazione delle metriche dei dati di training

    Metriche di training mostrate sotto le metriche di controllo.
  4. Fare clic su Cancella filtri e disattivare nuovamente l'interruttore Mostra metriche dati di training.

  5. Ordinare i modelli in base alle prestazioni, dalle più elevate alle più basse, facendo clic sull'intestazione della colonna F1. Si potrebbe scegliere di escludere gli algoritmi a basso rendimento o di concentrarsi solo su quello migliore per ottenere risultati più rapidi nella successiva ripetizione del training. Questo argomento verrà descritto in una sezione successiva, dove si spiega la configurazione della v3.

  6. Scorrere sotto la tabella delle metriche per vedere le visualizzazioni per il modello selezionato.

    Tabella Metriche modelli e visualizzazioni.

    Tabella delle metriche dei modelli e visualizzazioni.
  7. Fare clic su Pannello Configurazione esperimento o su Visualizza configurazione per espandere il pannello Configurazione esperimento.

  8. Fare clic su Nuova versione per creare una bozza della versione successiva dell'esperimento.

  9. Dal grafico Importanza della permutazione, così come dall'elenco Funzioni nel pannello Configurazione esperimento, notare che questa prima ripetizione del modello si basa molto sulla funzione DaysSinceLastService, mentre tutte le altre funzioni hanno un'importanza quasi nulla rispetto ad essa.

    Metrica Importanza della permutazione nel pannello di configurazione dell'esperimento, indicante l'influenza della funzione DaysSinceLastService

    Elenco delle funzioni nel pannello di configurazione dell'esperimento, che mostra come la funzione 'DaysSinceLastService' abbia un'influenza sproporzionata sull'esperimento.

    Questa disparità, oltre alle prestazioni estremamente elevate dei modelli, dovrebbe essere vista come un segnale che qualcosa non va. In questo caso, non è stata definita una logica durante la raccolta dei dati per interrompere il conteggio del numero di giorni dall'ultimo ticket di assistenza per i clienti che hanno cancellato la sottoscrizione. Di conseguenza, il modello ha imparato ad associare un numero elevato di giorni dall'ultimo ticket di assistenza con valore yes nel campo Churned.

    Si tratta di un esempio di perdita di dati, poiché in uno scenario reale il modello avrebbe accesso alle informazioni solo fino al momento della previsione, mentre il numero di giorni contenuti in questo campo è stato raccolto oltre quel punto di misurazione. Per ulteriori informazioni sulla perdita di dati, vedere Perdita di dati.

    È necessario rimuovere la funzione "con perdita di dati" DaysSinceLastService dalla configurazione dell'esperimento, poiché distorce i modelli risultanti. Notare che in un caso d'uso reale, prima della creazione del modello, è necessaria un'indagine approfondita sulla qualità dei dati e sulla logica, per garantire che il modello risultante sia formato correttamente.

    Questo problema verrà descritto nella sezione successiva, dove si spiega la configurazione della v2.

Configurazione ed esecuzione della versione 2

Poiché la maggior parte del training del modello cambierà dopo la risoluzione del problema della perdita di dati, configuriamo una nuova versione prima di completare ulteriori perfezionamenti.

  1. Da una fase precedente, si è già aperto il pannello Configurazione dell'esperimento per la configurazione di v2.

  2. Sotto Funzioni nel pannello Configurazione esperimento, deselezionare la casella di controllo DaysSinceLastService.

  3. Fare clic su Esegui v2.

Configurazione ed esecuzione della versione 3

Al termine dell'esecuzione della seconda versione dell'esperimento, fare clic sulla casella di controllo accanto al modello v2 più performante nella tabella delle metriche (contrassegnata con l'icona di un trofeo Trofeo). In questo modo si aggiorna la pagina con le metriche di quel modello.

Sopra la tabella Metriche modello, fare clic sul filtro a comparsa Versione e selezionare 2. Ciò consente agli utenti di concentrarsi esclusivamente sulle metriche del modello v2.

Si vedrà che l'elenco delle funzioni importanti è cambiato in modo sostanziale da quando è stata affrontata la questione della perdita di dati. Il modello con le prestazioni migliori può anche utilizzare un algoritmo differente dalla versione più performante del modello v1.

Tabella Metriche modello che mostra i modelli più performanti per la v2, ordinati in base al punteggio F1.

Tabella delle metriche del modello con il filtro della versione 'v2' applicato dopo l'addestramento del modello v2.
  1. Osservare il grafico dell'Importanza della permutazione. Alcune funzioni potrebbero avere un impatto molto inferiore sul modello rispetto ad altre. Sono di scarsa utilità per questo caso di utilizzo e si possono considerare come disturbo statistico. Provare a rimuovere alcune di queste funzioni per vedere se questo migliora i punteggi del modello.

    Grafico Importanza della permutazione per il modello v2 con le migliori prestazioni

    Grafico Importanza della permutazione dopo aver rimosso la caratteristica con perdita DaysSinceLastService.
  2. Fare clic su Pannello Configurazione esperimento o su Visualizza configurazione per espandere il pannello Configurazione esperimento.

  3. Fare clic su Nuova versione per creare una bozza della versione successiva dell'esperimento.

  4. Nel pannello Configurazione esperimento, in Funzioni, deselezionare le caselle di selezione per una o più funzioni che esercitano un'influenza minima o nulla sul modello.

  5. Di seguito ecco la tabella Metriche modello. Per ottenere risultati più rapidi nell'iterazione successiva del training, è possibile scegliere di escludere alcuni algoritmi con prestazioni inferiori o di concentrarsi solo su quelli con prestazioni migliori.

  6. Nel pannello Configurazione esperimento, nella sezione Algoritmi, facoltativamente è possibile deselezionare le caselle di selezione per alcuni degli algoritmi con prestazioni inferiori.

  7. Fare clic su Esegui v3.

Confronto tra le versioni dell'esperimento

Nella tabella Metriche modello, fare clic su Cancella filtri.

Una volta eseguita la versione v3, fare clic sulla casella di selezione accanto al modello v3 con prestazioni migliori per visualizzarne le metriche.

Fare clic su Altri filtri modello e selezionare il filtro Migliori performer. È possibile vedere le metriche per i migliori risultati di ogni iterazione dell'esperimento.

La prima versione del training ha ottenuto i punteggi più alti, ma queste metriche sono risultate molto esagerate e non realistiche nel predire le prestazioni, a causa del problema della perdita di dati. Nella v3, il punteggio F1 del modello più performante è aumentato rispetto a quello del modello più performante della v2.

Modelli più performanti

La tabella Metriche modello con il filtro "Migliori performer" applicato, che visualizza il modello più performante per la v3.

In uno scenario reale, è importante ripetere queste fasi di affinamento tutte le volte che è necessario prima di distribuire il modello, per assicurarsi di avere il miglior modello possibile per il caso d'uso specifico.

In questo tutorial, passiamo alla sezione successiva sulla distribuzione del modello.

Hai trovato utile questa pagina?

Se riscontri problemi con questa pagina o con il suo contenuto – un errore di battitura, un passaggio mancante o un errore tecnico – facci sapere come possiamo migliorare!