繁体   English   中英

Keras BatchNormalizing 不会产生预期的 output

[英]Keras BatchNormalizing does not produce expected output

我正在尝试从 Numpy 中的 Keras 重新创建 BatchNormalizing 层:(Python)

model = Sequential()
model.add(BatchNormalization(axis=1, center=False, scale=False))
model.compile(optimizer='adam', loss='mse', metrics=['mse'])

scale = np.linspace(0, 100, 1000)
x_train = np.sin(scale) + 2.5
y_train = np.sin(scale)
print(x_train.shape)
print(x_train.shape)

model.fit(x_train, y_train, epochs=100, batch_size=100, shuffle=True, verbose=2)

x_test = np.array([1])

mean = model.layers[0].get_weights()[0]
var = model.layers[0].get_weights()[1]

print('mean', np.mean(x_train), 'mean_tf', mean)
print('var', np.var(x_train), 'var_tf', var)

print('result_tf', model.predict(x_test))
print('result_pred', (x_test - mean) / var)



为什么我没有得到相同的结果?

居中和缩放 = True 时相同。 但我想保持简单。 我已经得到的所有其他层,如密集或 LSTM。

尝试使用 print('result_pred', (x_test - mean) / np.sqrt(var)) 并为进一步解释检查我在这个答案 stackoverflow.com/a/65744394/10733051 中的编辑

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM