[英]training a logistic neuron with scipy.minimize()
我在逻辑神经元训练中使用scipy.minimize()遇到麻烦。 我的成本和梯度函数已成功测试。
scipy.minimize()使我返回“ IndexError:数组的索引过多”。 我正在使用method ='CG',但是其他方法也一样。
res = minimize(loCostEntro, W, args=(XX,Y,lmbda), method='CG', jac=loGradEntro, options={'maxiter': 500})
W(权重),XX(训练集)和Y(结果)都是numpy二维数组。
请在下面找到渐变和成本函数的代码:
def loOutput(X, W):
Z = np.dot(X, W)
O = misc.sigmoid(Z)
return O
def loCostEntro(W, X, Y, lmbda=0):
m = len(X)
O = loOutput(X, W)
cost = -1 * (1 / m) * (np.log(O).T.dot(Y) + np.log(1 - O).T.dot(1 - Y)) \
+ (lmbda / (2 * m)) * np.sum( np.square(W[1:]))
return cost[0,0]
def loGradEntro(W, X, Y, lmbda=0):
m = len(X)
O = loOutput(X, W)
GRAD = (1 / m) * np.dot(X.T, (O - Y)) + (lmbda / m) * np.r_[[[0]], W[1:].reshape(-1, 1)]
return GRAD
多亏了这个有效的例子,我才知道出了什么问题。 原因是scipy.minimize()将1D权重数组(W)发送给我的Gradient和Cost函数,而我的函数仅支持2D数组。
因此,如下所示在点积中重塑W可以解决此问题:
def loOutput(X, W):
Z = np.dot(X, W.reshape(-1, 1)) # reshape(-1, 1) because scipy.minimize() sends 1-D W !!!
O = misc.sigmoid(Z)
return O
顺便说一句,修复此问题后,我遇到了另一个类似的问题。 Gradient函数应返回一维渐变。 所以我补充说:
def loGradEntroFlatten(W, X, Y, lmbda=0):
return loGradEntro(W, X, Y, lmbda).flatten()
我更新了:
res = minimize(loCostEntro, W, args=(XX,Y,lmbda), method='CG', jac=loGradEntroFlatten, options={'maxiter': 500})
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.