[英]Neural Network in Python - Having trouble with weight matrix shapes and back prop
[英]Trouble in understanding how the dimension of the weight matrix or theta matrix is 3X4?
Theta(权重)矩阵的大小为(输出 x 输入)。
输入包括偏置单元。
output 不包括偏置单元。
在图中,它将是 [3 x (3+1)]。 这里额外的 1 是添加到输入的偏置单元。
因此,简单的公式是 S(j+1) X (Sj + 1),即 3 x (3+1)
从图中我们了解到:
例如,在第一层,j=1,节点数,sj=3。
在所示的架构中,我们有三层。
现在,theta 是层之间的权重矩阵。 Theta 也称为权重或参数。我们有三层,因此有两个矩阵,theta1 和 theta2。
weight_matrix1(Theta1) 映射在输入层和隐藏层之间
weight_matrix2(Theta2) 映射在隐藏层和 output 层之间
按公式:
权重矩阵 1 的维度(在 s2 和 s1 之间)= s2 * (s1+1) = 3 *(3+1) = 3 * 4
权重矩阵 2 的维度(在 s3 和 s2 之间)= s3 * (s2+1) = 1 *(3+1) = 1 * 4
我们加 1 来解释偏置层 x0。 对于矩阵乘法,matrix1 中的行数应该等于 matrix2 中的列数。 在这个例子中,我们知道 layer1 的维度和 layer 2 的维度,我们从中计算 weight_matrix theta 的维度。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.