[英]Neural network with 1 hidden layer cannot learn checkerboard function?
我刚刚开始学习神经网络,以了解它们是否对我有用。
我只是将学习模式修改为棋盘格,而不是XOR,并将隐藏层中的节点数更改为10。如果我理解通用逼近定理,那么这3层网络(一个隐藏层)应该能够学习从R2到R的任何函数,包括棋盘功能。 ...但事实并非如此。
怎么了?
是否有任何通用方法可以修改优化(学习)方案,以确保收敛到给定网络根据通用逼近定理从理论上可以描述的任何函数?
是否有任何常规测试可以告诉我,如果我的网络(具有给定的拓扑,层数和节点数)是否能够描述给定的功能(如果它只是陷入某些局部最小值中)?
这是隐藏层中有10个神经元的结果:
train it with some patterns
error 3.14902
error 1.37104
error 1.35305
error 1.30453
error 1.28329
error 1.27599
error 1.27275
error 1.27108
error 1.27014
error 1.26957
test it
([0.0, 0.0], '->', [0.019645293674000152])
([0.0, 0.5], '->', [0.5981006916165954])
([0.0, 1.0], '->', [0.5673621981298169])
([0.5, 0.0], '->', [0.5801274708105488])
([0.5, 0.5], '->', [0.5475774428347904])
([0.5, 1.0], '->', [0.5054692523873793])
([1.0, 0.0], '->', [0.5269586801603834])
([1.0, 0.5], '->', [0.48368767897171666])
([1.0, 1.0], '->', [0.43916379836698244])
这是测试运行的定义(仅我修改的部分代码):
def demo():
# Teach network checkerboard function
pat = [
[ [0.0,0.0], [0.0] ],
[ [0.0,0.5], [1.0] ],
[ [0.0,1.0], [0.0] ],
[ [0.5,0.0], [1.0] ],
[ [0.5,0.5], [0.0] ],
[ [0.5,1.0], [1.0] ],
[ [1.0,0.0], [0.0] ],
[ [1.0,0.5], [1.0] ],
[ [1.0,1.0], [0.0] ]
]
# create a network with two input, 10 hidden, and one output nodes
n = NN(2, 10, 1)
print " train it with some patterns "
n.train(pat)
print " test it "
n.test(pat)
通用逼近定理表明, 任何连续函数都可以用一个隐藏层任意逼近。 它不需要任何类型的数据可分离性,我们正在谈论任意函数。
特别是,如果您有N个隐藏节点,其中N是训练样本数,那么始终可以完美地学习您的训练集(它可以简单地记住所有输入-输入对)。
但是, 没有关于这些对象的泛化的保证,也没有关于较小网络的学习保证。 神经网络不是“通用答案”,它们很难正确处理。
回到您的问题,您的功能相当琐碎,并且上述所有问题都没有在这里应用,这种功能可以通过非常基本的网络轻松学习。 看起来这是以下两个方面之一:
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.