[英]perceptron learning algorithm : convergence proof for the algorithm, why the ||w*|| is equal 1 or this condition is necessary?
我正在研究感知学习,并通过以下链接学习算法的收敛证明( https://www.cse.iitb.ac.in/~shivaram/teaching/cs344+386-s2017/resources/classnote-1。 pdf ):如图所示的假设1(线性可分离性)。 我不知道为什么|| w * || = 1或为什么这个条件是必要的,您能帮我理解吗?谢谢!
规范假设仅是为了简化分析,很容易表明该假设不是必需的,因为删除它实际上意味着它。
假设存在w(|| w || = Z> 0),且gamma> 0使得
yi(<w, xi>) > gamma
然后对于相同的伽玛:
yi(<Zw/||w||, xi>) > gamma
从而
|Z| yi(<w/||w||, xi>) > gamma
因此对于w * = w / || w || (因此|| w * || = 1),并且gamma * = gamma / | Z | > 0
yi(<w*, xi>) > gamma*
得出这样的证明:如果存在任何w(具有任意范数Z)和伽马,那么也将存在具有范数1的w *(并且只需将原始伽马除以Z),并且gamma * = gamma / Z。
这样做的唯一原因是简化证明中的常数,但是假设本身是多余的。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.