другой моделью? Допустим, LSTM / RNN + GBDT, то есть как бы первая модель выдает прогноз, а вторая модель будет дотягивать ошибки от предыдущего прогноза до реальных значений. Не усреднять два прогноза, а именно на остатках обучиться, чтобы второй прогноз можно было потом к первому прогнозу добавить. Кто что думает по этому поводу? Где почитать / послушать можно?
что-то выглядит как описание работы градиентного бустинга. так что разумно предположить, что это ничем не улучшит уже использованный GBDT
Так GBDT и есть градиентный бустинг на решающих деревьях, но где-то почитать можно о таком совмещении? Я пока разные пейперы полистал, но там суховато, не совсем понятно, как что и куда. То есть сейчас я представляю это как у нас есть LSTM, мы даем ему регрессоры, фитим, получаем прогноз, после считаем остатки, пихаем их в GBDT с теми же регрессорами, но вот за результат на втором этапе я уже не уверен 🤔
Обсуждают сегодня