если к-ты модели выражаются аналитически?
Быстрее
А по дефолту если запустить стандартную библиотеку на R/ python, то будет именно бустингом коэффициенты считаться?!
Вероятно, я неправильно выразился. Если запустить linear regression из scklearn, то коэффициенты будут посчитаны при помощи градиентного бустинга?
градиентный бустинг != градиентный спуск
И все? Я думал будет что-то про предпосылки Гаусса Маркова...
Теорвер тут ни при чём) И (X^TX)^{-1}X^TY, и градиентный спуск в теории дают одинаковый ответ (если градиентный спуск делать до полной сходимости). Но градиентный спуск удобно на мини-батчах считать, и это становится важным, когда обучающие датасеты очень большие и полностью в память не помещаются.
Обсуждают сегодня