繁体   English   中英

用scipy.minimize()训练逻辑神经元

[英]training a logistic neuron with scipy.minimize()

我在逻辑神经元训练中使用scipy.minimize()遇到麻烦。 我的成本和梯度函数已成功测试。

scipy.minimize()使我返回“ IndexError:数组的索引过多”。 我正在使用method ='CG',但是其他方法也一样。

res = minimize(loCostEntro, W, args=(XX,Y,lmbda), method='CG', jac=loGradEntro, options={'maxiter': 500})

W(权重),XX(训练集)和Y(结果)都是numpy二维数组。

请在下面找到渐变和成本函数的代码:

def loOutput(X, W):
   Z = np.dot(X, W)
   O = misc.sigmoid(Z)
   return O


def loCostEntro(W, X, Y, lmbda=0):
   m = len(X)
   O = loOutput(X, W)
   cost = -1 * (1 / m) * (np.log(O).T.dot(Y) + np.log(1 - O).T.dot(1 - Y)) \
       + (lmbda / (2 * m)) * np.sum( np.square(W[1:]))
   return cost[0,0]

def loGradEntro(W, X, Y, lmbda=0):
    m = len(X)
    O = loOutput(X, W)
    GRAD = (1 / m) * np.dot(X.T, (O - Y)) + (lmbda / m) * np.r_[[[0]], W[1:].reshape(-1, 1)]
    return GRAD

多亏了这个有效的例子,我才知道出了什么问题。 原因是scipy.minimize()将1D权重数组(W)发送给我的Gradient和Cost函数,而我的函数仅支持2D数组。

因此,如下所示在点积中重塑W可以解决此问题:

def loOutput(X, W):
   Z = np.dot(X, W.reshape(-1, 1))    # reshape(-1, 1) because scipy.minimize() sends 1-D W !!!
   O = misc.sigmoid(Z)
   return O

顺便说一句,修复此问题后,我遇到了另一个类似的问题。 Gradient函数应返回一维渐变。 所以我补充说:

def loGradEntroFlatten(W, X, Y, lmbda=0):
    return loGradEntro(W, X, Y, lmbda).flatten()

我更新了:

res = minimize(loCostEntro, W, args=(XX,Y,lmbda), method='CG', jac=loGradEntroFlatten, options={'maxiter': 500})

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM