ハイパーパラメーターの最適化
機械学習モデルでは、さまざまなデータ パターンを一般化するために、異なる制約、重み、または学習率が必要となります。これらの測定値はハイパーパラメーターと呼ばれ、学習プロセスを制御するために使用されます。モデルが機械学習の問題を最適に解決できるように、ハイパーパラメーターを調整する必要があります。
デフォルトでは、AutoML はモデルのトレーニングで使用される各アルゴリズムに対して、事前に定義された一連のハイパーパラメーター値を使用します。これらは、データ サイエンス コミュニティで一般的に受け入れられている標準的な最適化された値です。パフォーマンス最上位のハイパーパラメーター値の組み合わせが自動的に選択されます。
ただし、場合によっては、最適な予測結果を得るためにモデルを微調整する必要があります。これは、ハイパーパラメーターの最適化 (HPO) を使用して実行できます。
AutoML は、実験構成で選択したセットの最適なアルゴリズムに対してのみ、ハイパーパラメーターの最適化を実行します。最初にランダム検索が実行され、次にアルゴリズムに最適なハイパーパラメーターを見つけるためにグリッド検索が実行されます。
ハイパーパラメーターの最適化を使用する前に、次の重要項目について考慮する必要があります。
-
初めてモデルをトレーニングするときは、ハイパーパラメーターの最適化を使用しないでください。ハイパーパラメーターの最適化は、モデルをトレーニングし、結果に満足した後に使用するように設計されています。多くの場合、そのプロセスには改良と再トレーニングの繰り返しが必要となります。
-
ハイパーパラメーターの最適化には、かなりの時間が必要となります。標準の事前定義されたハイパーパラメーター値を使用したモデルのトレーニング プロセスに 5 分かかる場合、ハイパーパラメーターの最適化を有効にした同じモデルのトレーニングには数時間かかる可能性があります。
ハイパーパラメーターの最適化で使用されるアルゴリズム
ハイパーパラメーターの最適化は、特定のアルゴリズムとモデル タイプに限定されます。特に、次のモデル タイプとアルゴリズムで動作するように設計されています。
-
二項分類モデル
-
CatBoost の分類
-
エラスティック ネット回帰
-
ラッソ回帰
-
LightGBM 分類
-
ロジスティック回帰
-
ランダム フォレスト分類
-
XGBoost 分類
-
-
回帰モデル
-
CatBoost 回帰
-
LightGBM 回帰
-
ランダム フォレスト回帰
-
XGBoost 回帰
-
ハイパーパラメーターの最適化を有効にする
次の手順を実行します。
実験で、 [構成を見る] をクリックします。
実験構成パネルが開きます。
必要に応じて、 [新しいバージョン] をクリックして次のバージョンを構成します。
パネルで、 [モデル最適化] を展開します。
[インテリジェント] から [手動] に切り替えます。
ハイパーパラメーターの最適化は、インテリジェント モデル最適化では使用できません。
[ハイパーパラメーターの最適化] のチェック ボックスをクリックします。
ハイパーパラメーター値の表示
詳細なモデル分析中に、 [比較] タブでハイパーパラメーター値を表示します。詳細は、詳細なモデル分析の実行をご覧ください。