[英](tf2/tf.keras) How could # params decreases when a model contains another model
我有一個名為模型 A 的 keras 模型(不是層)。模型 A 包含 keras.Layers 類型:Dense、Conv2D、AveragePooling2D、BatchNormalization、add、GlobalAveragePooling2D。
model.summary() 的輸出如下:
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
layer_type_1 (Layer_type_1) multiple 3776
_________________________________________________________________
... ... ...
_________________________________________________________________
dense (Dense) multiple 1024
=================================================================
Total params: 4,787,808
Trainable params: 4,782,496
Non-trainable params: 5,312
_________________________________________________________________
我有另一個 keras 模型(模型 B),其中包含模型 A。
概括():
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
conv2d (Conv2D) multiple 35
_________________________________________________________________
model_A (ModelA) multiple 4787232
=================================================================
Total params: 4,787,267
Trainable params: 4,781,955
Non-trainable params: 5,312
_________________________________________________________________
我想知道模型 B 中的總參數數量怎么會少於模型 A?
由於模型 B 包含模型 A,它必須更大。
我發現這是因為輸入形狀(到模型 A)由於模型 B 中的第一個 Conv2D 層而從 (W, D, 6) 更改為 (W, D, 5)。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.