Оптимизация гиперпараметров
Чтобы модели машинного обучения могли обобщать различные закономерности в данных, требуются различные ограничения, веса или скорости обучения. Эти показатели называются гиперпараметрами и используются для управления процессом обучения. Гиперпараметры следует настраивать так, чтобы модель могла оптимально решить задачу машинного обучения.
По умолчанию AutoML использует предопределенный набор значений гиперпараметров для каждого алгоритма, используемого при обучении модели. Это стандартные оптимизированные значения, которые, как правило, используют специалисты по данным. Выбор наиболее производительного набора значений гиперпараметров производится автоматически.
Однако в некоторых случаях может потребоваться точная настройка модели, которая позволит получить оптимальные результаты прогнозирования. Это можно сделать при помощи оптимизации гиперпараметров (HPO).
AutoML запускает оптимизацию гиперпараметров только для лучшего алгоритма из набора, выбранного в конфигурации эксперимента. Сначала выполняется случайный поиск, а затем поиск по сетке, чтобы найти лучшие гиперпараметры для алгоритма.
Перед выполнением оптимизации гиперпараметров необходимо учесть несколько важных аспектов.
-
Не используйте оптимизацию гиперпараметров при первом обучении модели. Она должна использоваться только после обучения модели и получения удовлетворительных результатов. Этот процесс часто требует неоднократного уточнения и переобучения.
-
Для оптимизации гиперпараметров требуется дополнительное время. Если процесс обучения модели занимает пять минут при использовании стандартных предопределенных значений гиперпараметров, то обучение той же модели с оптимизацией гиперпараметров может занять несколько часов.
Алгоритмы, используемые при оптимизации гиперпараметров
Оптимизация гиперпараметров ограничена конкретными алгоритмами и типами моделей. Она предназначена для использования со следующими типами моделей и алгоритмами.
-
Модели двоичной классификации
-
Классификация методом CatBoost
-
Регрессия методом эластичной сети
-
Регрессия методом лассо
-
Классификация методом LightGBM
-
Логистическая регрессия
-
Классификация методом случайного леса
-
Классификация методом XGBoost
-
-
Регрессионные модели
-
Регрессия методом CatBoost
-
Регрессия методом LightGBM
-
Регрессия методом случайного леса
-
Регрессия методом XGBoost
-
Включение функции оптимизации гиперпараметров
Выполните следующие действия.
В эксперименте нажмите кнопку Посмотреть конфигурацию.
Откроется панель конфигурации эксперимента.
При необходимости выберите Новая версия, чтобы настроить следующую версию.
На панели разверните пункт Оптимизация модели.
Переключитесь из режима Интеллектуальная в режим Ручная.
Оптимизация гиперпараметров недоступна, если включена интеллектуальная оптимизация.
Установите флажок Оптимизация гиперпараметров.
Просмотр значений гиперпараметров
Просмотрите значения гиперпараметров на вкладке Сравнение во время подробного анализа модели. Для получения дополнительной информации см. раздел Выполнение подробного анализа модели.