Перейти к основному содержимому Перейти к дополнительному содержимому

Оптимизация гиперпараметров

Чтобы модели машинного обучения могли обобщать различные закономерности в данных, требуются различные ограничения, веса или скорости обучения. Эти показатели называются гиперпараметрами и используются для управления процессом обучения. Гиперпараметры следует настраивать так, чтобы модель могла оптимально решить задачу машинного обучения.

По умолчанию AutoML использует предопределенный набор значений гиперпараметров для каждого алгоритма, используемого при обучении модели. Это стандартные оптимизированные значения, которые, как правило, используют специалисты по данным. Выбор наиболее эффективного набора значений гиперпараметров производится автоматически.

Однако в некоторых случаях может потребоваться точная настройка модели, которая позволит получить оптимальные результаты прогнозирования. Это можно сделать при помощи оптимизации гиперпараметров (HPO).

AutoML запускает оптимизацию гиперпараметров только для лучшего алгоритма из набора, выбранного в конфигурации эксперимента. Сначала выполняется случайный поиск, а затем поиск по сетке, чтобы найти лучшие гиперпараметры для алгоритма.

Перед выполнением оптимизации гиперпараметров необходимо учесть несколько важных аспектов.

  • Не используйте оптимизацию гиперпараметров при первом обучении модели. Она должна использоваться только после обучения модели и получения удовлетворительных результатов. Этот процесс часто требует неоднократного уточнения и переобучения.

  • Для оптимизации гиперпараметров требуется дополнительное время. Если процесс обучения модели занимает пять минут при использовании стандартных предопределенных значений гиперпараметров, то обучение той же модели с оптимизацией гиперпараметров может занять несколько часов.

Алгоритмы, используемые при оптимизации гиперпараметров

Оптимизация гиперпараметров ограничена конкретными алгоритмами и типами моделей. Она предназначена для использования со следующими типами моделей и алгоритмами.

  • Модели двоичной классификации

    • Классификация методом CatBoost

    • Регрессия методом эластичной сети

    • Регрессия методом лассо

    • Классификация методом LightGBM

    • Логистическая регрессия

    • Классификация методом случайного леса

    • Классификация методом XGBoost

  • Регрессионные модели

    • Регрессия методом CatBoost

    • Регрессия методом LightGBM

    • Регрессия методом случайного леса

    • Регрессия методом XGBoost

Включение функции оптимизации гиперпараметров

Функцию оптимизации гиперпараметров можно включить на панели Конфигурация эксперимента в разделе Оптимизация модели.

Просмотр значений гиперпараметров

Чтобы просмотреть значения гиперпараметров, используемых для модели, нажмите Гиперпараметры в столбце Гиперпараметры в таблице Метрики модели.

Подробнее

Помогла ли вам эта страница?

Если вы обнаружили какую-либо проблему на этой странице и с ее содержанием — будь то опечатка, пропущенный шаг или техническая ошибка, сообщите нам об этом, чтобы мы смогли ее исправить!