в статьях про эту регрессию вижу картинки такого рода. Хочу убедиться, что правильно понимаю, как вычисляется наиболее оптимальная гиперплоскость.
Я правильно понимаю, что логистическая прямая y_predicted = a0 + a1*x1 + a2*x2, которая проводится в 2D пространстве признаков, если у нас 2 признака (или в общем случае гиперплоскость, которая проводится в n-мерном пространстве) - это такая прямая (я буду говорить на примере n=2), что сумма квадратов отклонений предсказываемых вероятностей p_predicted = 1/[1+exp(-y_predicted)] от нашей бинарной переменной p={1, 0} минимальна?
Т.е. получается, что нам надо найти такие (a0, a1, ..., an), при которых f(a0, a1, ..., an) = сумма(p_i - p_predicted)^2 = сумма( p_i - (1/[1+exp(-a0-a1*x1-...-an*xn)]) )^2 -> min
Оформил формулу в конце в более читаемый вид:
Тогда перешлю вопрос, чтоб другие не потеряли его
Обсуждают сегодня