что выборка распределена согласно логистической функции плотности?
На мой взгляд нет. Логит регрессию можно рассматривать как разделяющую гиперплоскость (см. Интерпретацию нейрона)
что-то мне кажется вы путаете
А что вы думаете на этот счёт? Если такую плотность проинтегрировать получится как раз сигмоида, и ещё такая плотность все таки похожа на нормальную...
http://www.machinelearning.ru/wiki/index.php?title=%D0%9B%D0%BE%D0%B3%D0%B8%D1%81%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B0%D1%8F_%D1%80%D0%B5%D0%B3%D1%80%D0%B5%D1%81%D1%81%D0%B8%D1%8F
https://youtu.be/oTXGQ-_oqvI?t=2657 Посмотрите примерно с этого времени
Не вижу там где про разделяющую гиперплоскость написано
Байесовский классификатор, ну или видео выше
Ну там написано, что классификатор оптимальный с точки зрения, теоремы байеса. Про гиперплоскость ни слова
На самом деле по разным видео в сети про логистическую регрессию рассказывают неверно. Суть не в том что нужно аппроксимировать классы логистической функцией а в том что исходно принято считать что выборка распределена по логит, скорее всего предполагается что взято такое потому что такая фпв легко интегрируется и более менее похожа на нормальное
можете привести математическое обоснование этой гипотезы?
Обсуждают сегодня