применимости у ансамблей решающих деревьев (бэггинг, бустинг)? Или тут только тюнинг гиперпараметров на крос валидации и проверка на тестовой выборке?
Нормально😂
Eggsplain please
Стикер
Предложение использовать эксджибуст может поступить либо от некомпетентного специалиста, который слабо представляет что за неонки внутри ящика, либо от высококвалифицированного специалиста, который внутрь ящика может заглянуть и ласточку пересобрать. Пользователи внутри 6 сигм с недоумением смотрят на экстремумы
ну как минимум количество фич должно быть меньше количества наблюдений )))
я как-то во времена жж видел задачку про кластеризацию семи наблюдений по 150 признакам %) @psych2016 может даже вспомнит %)
Вы имеете в виду, что не стоит использовать xgboost, если не понимаешь до конца как он работает и в чем разница с классическим ГБ? Почему? При тюне гиперпараметром с ним проще достичь лучших результатов на кросвалидации, чем с классической реализацией ГБ (это из моего личного небольшого опыта это так)
Чего только не было во времена ЖЖ, а ru_spss почти ещё живо %)
А в смысле как пересобрать модель по результатам бустинга?
Там многие годы как БАО
ru_spss я создавал 2006 году, столько воды утекло, но там хорошо материалы и посты структурированы
Почему? Разве регуляризация не решает эту проблему?
Проблемы нехватки наблюдений регуляризацией решить нельзя, но можно решить проблему мультиколлинеарности
Вам надо понимать что то про процесс который генерирует данные. Если он очень не линейный то наверно случайный лёсс. Если линейный то линейная регрессия
То что пытаюсь сказать, когда будете фитить очень не-линейную модель на линейный DGP будет жесткий overfitting и не какая кросс-валидация не поможет)
О_о пост от четвертого августа, да вы некромант
Обсуждают сегодня