проекте, в котором вслепую юзал рандомный лес. Но вот проблема, в sklearn не могу найти возможность обучение через batch gradient descent и mini-batch, только Stochastic. Если есть знающий, можете объяснить есть ли такое и где его найти или прийдётся ручками?
Градиентный спуск это далеко не единственный способ минимизировать функцию потерь. Пропуская часть где я спрашиваю «зачем», отвечу 1) ты можешь легко заимплементить линейную модель при помощи torch/tf. Тебе не обязательно использовать sklearn 2) ты можешь сэмитировать динамическое обучение используя sgd в sklearn(partial_fit) что по сути тоже самое что цикл с max_iter=1 Не один из этих случаев не является полноценным способом «быть линейной моделью(я подозреваю что речь про лин-рег,лог-рег) обученной через батчи». Почему ? Когда ты получше изучишь линейные модели ты поймёшь почему так
Я понимаю почему так и зачем нужен sgd, но, если я не ошибаюсь sgd с max_iter=1 будет немного не то. Да, он берёт все строчки из датасета, но не последовательно же, а рандомно. В любом случае я склепал цикл с чистым batch gradient и понял что датасет в 16к строчек он будет на моём ноуте подгонять по 1.5 секунде за каждую строчку и это правда бессмысленно. Только всё равно интересно почему не добавили mini-batch версию GD
Потому что весов один вектор :)
Да, по поводу того что max_iter 1 это не то, ты прав
Обсуждают сегодня