почему у меня значения не совпадают с sklearn?
Вот мой код:
A = data[['RM','MEDV']]
matrix = np.array(A.values,'float')
X = matrix[:,0]
y = matrix[:,1]
def computecost(x,y,theta):
a = 1/(2*m)
b = np.sum(((x@theta)-y)**2)
j = (a)*(b)
return j
m = np.size(y)
X = X.reshape([506,1])
x = np.hstack([np.ones_like(X),X])
theta = np.zeros([2,1])
def gradient(x,y,theta):
alpha = 0.00001
iteration = 2000
#gradient descend algorithm
J_history = np.zeros([iteration, 1]);
for iter in range(0,2000):
error = (x @ theta) -y
temp0 = theta[0] - ((alpha/m) * np.sum(error*x[:,0]))
temp1 = theta[1] - ((alpha/m) * np.sum(error*x[:,1]))
theta = np.array([temp0,temp1]).reshape(2,1)
J_history[iter] = (1 / (2*m) ) * (np.sum(((x @ theta)-y)**2)) #compute J value for each iteration
return theta, J_history
theta , J = gradient(x,y,theta)
print(theta)
Мне выводятся значения: -6.46947298 и 4.72553104
А в sklearn: -34.670620776438554 и 9.10210898
НО, когда я запускаю 5 раз данную строчку:
theta , J = gradient(x,y,theta)
То значения почти как у sklearn
Объясните, пожалуйста, почему так и что я не так делаю
Т.е. естественно, что градиентный спуск одной итерацией ничего хорошего не выдает
А как мне понять когда он дает хороший результат?
Как тебе уже говорили, нужен критерий остановки
Обсуждают сегодня