почему у меня значения не совпадают с sklearn?
                  
                  
                  
                  
                  
                  Вот мой код:
                  
                  
                  
                  
                  
                  A = data[['RM','MEDV']]
                  
                  
                  matrix = np.array(A.values,'float')
                  
                  
                  X = matrix[:,0]
                  
                  
                  y = matrix[:,1]
                  
                  
                  
                  
                  
                  def computecost(x,y,theta):
                  
                  
                      
                  
                  
                      a = 1/(2*m)
                  
                  
                      b = np.sum(((x@theta)-y)**2)
                  
                  
                      j = (a)*(b)
                  
                  
                      return j
                  
                  
                  
                  
                  
                  m = np.size(y)
                  
                  
                  X = X.reshape([506,1])
                  
                  
                  x = np.hstack([np.ones_like(X),X])
                  
                  
                  theta = np.zeros([2,1])
                  
                  
                  
                  
                  
                  def gradient(x,y,theta):
                  
                  
                      
                  
                  
                      alpha = 0.00001
                  
                  
                      iteration = 2000
                  
                  
                  #gradient descend algorithm
                  
                  
                      J_history = np.zeros([iteration, 1]);
                  
                  
                      for iter in range(0,2000):
                  
                  
                          
                  
                  
                          error = (x @ theta) -y
                  
                  
                          temp0 = theta[0] - ((alpha/m) * np.sum(error*x[:,0]))
                  
                  
                          temp1 = theta[1] - ((alpha/m) * np.sum(error*x[:,1]))
                  
                  
                          theta = np.array([temp0,temp1]).reshape(2,1)
                  
                  
                          J_history[iter] = (1 / (2*m) ) * (np.sum(((x @ theta)-y)**2))   #compute J value for each iteration 
                  
                  
                      return theta, J_history
                  
                  
                  
                  
                  
                  theta , J = gradient(x,y,theta)
                  
                  
                  print(theta)
                  
                  
                  
                  
                  
                  Мне выводятся значения: -6.46947298  и 4.72553104
                  
                  
                  А в sklearn: -34.670620776438554 и 9.10210898
                  
                  
                  
                  
                  
                  НО, когда я запускаю 5 раз данную строчку:
                  
                  
                  theta , J = gradient(x,y,theta)
                  
                  
                  
                  
                  
                  То значения почти как у sklearn
                  
                  
                  Объясните, пожалуйста, почему так и что я не так делаю
                  
                  
                
Т.е. естественно, что градиентный спуск одной итерацией ничего хорошего не выдает
А как мне понять когда он дает хороший результат?
Как тебе уже говорили, нужен критерий остановки
Обсуждают сегодня