для чего нужен kfold в машинном обучении? Одни пишут для разделения на тестовую и обучающую выборки, другие бл@ть, для повышения точности прогноза, третьи чтобы переобучения не было, четвертые пишут что она нужна для классификации бинарных признаков
Гугли зачем нужна кросс валидация
Для более точного измерения качества модели
Ну вообще почти все правы. Хз конечно причем здесь классификация бинарных признаков
я так понимаю это нужно чтобы разбить на тестовую и тренировочную выборку, несколько раз, а потом выбирается при каком соотношении наилучшая точность. Так?
Это нужно, чтобы лучше оценить реальную точность, уменьшив погрешность, вызванную ее эмпирической оценкой на фиксированной выборке
ну в документации написано другое
По моему все таки чтобы обучать на каждой разбивке. Тут если я правильно в свое время эту тему понял решается очевидный трабл - если разбивка идет только одним вариантом, трудно избежать оверфиттинга на тренировочном наборе. Приходится менять метапараметры, пробовать-пробовать. K-fold же решит проблему на тех метапараметрах, для которых был бы оверфиттинг Но мб я не прав)
В документации обычно пишут как, а не зачем
Для инференса все равно обучают на всех доступных данных
Обсуждают сегодня