TL;DR: В ансамблевом прогнозировании важнее не индивидуальное качество моделей, а разнообразие их ошибок. Эксперимент показывает: пул из «худших» по отдельности моделей даёт лучшую точность ансамбля, чем пул из «лучших».


Недавно я провёл эксперимент, который противоречит интуиции большинства практиков: пул из индивидуально более слабых моделей стабильно превосходит пул из более качественных моделей при объединении в ансамбль.

? Методология эксперимента

  • Данные: финансовые временные ряды цены на пшеницу FOB Черное море, фундаментальные и макро факторы

  • Горизонт прогноза: 1–12 недель.

  • Модели: 18 базовых алгоритмов (Holt-Winters, Prophet, RF, Ridge, KNN, GB) с разными гиперпараметрами и глубиной обучающих периодов.

  • Метрики: MAE, MAPE, Accuracy определения направления тренда.

  • Ансамблирование: Lasso регрессия

? Сравнение производится между пулами моделей с разным интервалом обучения

? Шаг 1: Модели переобучаются на каждом новом наблюдении (малый шаг обновления, частое обучение).
? Шаг 20: Модели переобучаются раз в 20 периодов (больший шаг, редкие обновления).

Делюсь подробностями с визуализациями. ?


? Слайд 1 — Главный вывод и распределение ошибок

Важно не индивидуальное качество модели, а её предельный вклад в ансамбль.

  • Ансамбль из Шага 20 снизил MAE на 46% (с 15.7 до 8.5);

  • Ансамбль из Шага 1 дал улучшение всего на 18% (с 11.6 до 9.5).

По индивидуальным метрикам Шаг 1 объективно лучше (медианная MAE 11.6 против 15.7, точность тренда 55% против 52.5%). Если отбирать модели только по этим цифрам, Шаг 20 никогда не попадёт в продакшн. И это была бы ошибка.


? Слайд 2 — Качество по горизонту прогноза

Шаг 20 выигрывает на всех горизонтах прогноза (1–12 недель) без исключений.

Разрыв увеличивается на средних и длинных горизонтах, где критична корреляция ошибок. Ансамбль Шага 20 достиг 65.7% точности тренда — выше, чем любая отдельная модель из Шага 1.

? На длинных горизонтах разнообразие ошибок становится важнее, чем «чистота» отдельного прогноза.


? Слайд 3 — Механика: структура корреляций ошибок

⚠️ Данные на этом слайде синтетические, сгенерированы для иллюстрации структуры ошибок.

Инсайт:

  • Шаг 1: Модели сходятся к схожим локальным минимумам. Ошибки сильно коррелированы. Усреднение коррелированных ошибок даёт примерно ту же ошибку.

  • Шаг 20: Редкие обновления заставляют модели «перепрыгивать» по пространству параметров, попадая в разнообразные минимумы. Ошибки слабо коррелированы и компенсируют друг друга при усреднении.


? Слайд 4 — Миграция в пространстве качества

Диаграмма рассеяния показывает траекторию каждой модели от Шага 1 к Шагу 20.

⭐ Звёздами отмечены финальные ансамбли. Обратите внимание: Ансамбль Ш20 смещается в «идеальный» левый нижний угол (низкие MAPE и MAE), хотя отдельные модели Шага 20 (квадраты) разбросаны широко.

? Вывод: Разнообразие ошибок — это полноценная целевая переменная при построении ансамблей.


? Слайд 5 — Итоговый прирост: пул против ансамбля

Сводные столбчатые диаграммы показывают, насколько ансамбль улучшает метрики относительно простого усреднения по пулу.


? Практические рекомендации

  • Не отбирайте модели для ансамбля только по индивидуальным метрикам. Модель с худшей MAE может быть идеальным «дополнением» к пулу, если её ошибки некоррелированы с остальными.

  • Используйте жадный отбор ансамбля: итеративно добавляйте ту модель, которая даёт максимальное улучшение валидационной метрики уже собранного ансамбля.

  • Слабая модель заслуживает места в пуле, если она «ошибается иначе». Разнообразие > качество, когда речь идёт об ансамблях.

  • Контролируйте корреляцию ошибок. Если все модели ошибаются одинаково — усреднение не поможет.

  • Экспериментируйте с частотой обновления. Иногда «недообученные» или реже обновляемые модели вносят больше разнообразия, чем идеально настроенные.


? Вместо заключения

Этот эксперимент напоминает: в машинном обучении интуиция часто обманывает. То, что выглядит «хуже» на уровне отдельной модели, может стать ключевым элементом сильного ансамбля.

Если вы строите прогнозные системы — не гонитесь за одной идеальной моделью. Собирайте пул разнообразных «ошибающихся по-разному» алгоритмов, и ансамбль сделает остальное.

? А как вы отбираете модели для ансамблей? Делитесь опытом в комментариях.

Автор: Юрий Подмогаев

Материал предоставлен исключительно в информационных целях и не должен использоваться как основание для принятия коммерческих решений.

Комментарии (2)


  1. bosco
    11.04.2026 18:13

    Может все таки не более слабых, а более специализированных, и не более сильных, а более универсальных.

    Тут ещё вопрос как у них будут результаты на сильно увеличенной реальной выборке. Возможно все поменяется.

    У малых моделей выше шанс на переобучение, у больших на запоминание


  1. EugenePotemkin
    11.04.2026 18:13

    Мне понравилось. Собственно я и не читал. Ну разве что пунктиром по диагонали. Но сама мысль легла сразу. Разные подходы, разные модели дают для Понимания больше чем одна прекрасная модель. Одна Модель, это про Знания...