|
马上注册,结交更多好友,享用更多功能^_^
您需要 登录 才可以下载或查看,没有账号?立即注册
x
def gradientDescent(X, y, theta, alpha, iters):
temp = np.matrix(np.zeros(theta.shape))
parameters = int(theta.ravel().shape[1])
cost = np.zeros(iters)
for i in range(iters):
error = (X * theta.T) - y
for j in range(parameters):
term = np.multiply(error, X[:,j])
temp[0,j] = theta[0,j] - ((alpha / len(X)) * np.sum(term))
theta = temp
cost[i] = computeCost(X, y, theta)
return theta, cost
其中:
np.multiply(error, X[:,j])
以及
temp[0,j] = theta[0,j] - ((alpha / len(X)) * np.sum(term))
没太明白怎么是用公式的,好像和梯度下降求偏导的公式不太一样,请教下老师们
公式图片见下方
|
|