[英]Keras : problem with gradients, custom layer won't work in a sequential model
这是我在下面的代码中收到的错误消息:
ValueError:没有为任何变量提供渐变:['Variable:0']。
在它通过整个层的 build() 之后,在 model.fit() 中。
它在通过 build() 和引发错误之前打印输入和标量,但张量都是空的:
Tensor("IteratorGetNext:0", shape=(None, 1), dtype=float32)
<tf.Variable 'Variable:0' shape=(1,) dtype=float>
我的目标是编写一个(基本)自定义层并将其插入(基本)model。 我的自定义层自行正常工作,但我无法让 model 适合。 该层采用张量并将其乘以标量。 我希望我的 model 给我输入*(我早期选择的标量)。
到目前为止,我已经收到了很多关于各种张量的 dtype 的错误警告(我有 int32 而不是 float32)所以我写了很多演员表,我有一个 model 更复杂,但我把它剥离到骨头来调试(它没有帮不上什么忙……)。
我尝试使用和不使用“build()”,在标签上使用和不使用“to_categorical”,使用矢量输入和标量输入,以及其他可能无关紧要的东西。
这是图层的代码:
from tensorflow.python.keras import layers
import tensorflow as tf
from tensorflow.python.ops import math_ops
from tensorflow.python.framework import tensor_shape
import h5py
import numpy as np
class MyBasicLayer(layers.Layer):
def __init__(self, **kwargs):
super().__init__(self)
self._set_dtype_policy('float32')
self.w = self.add_weight(shape=(1,), initializer='zeros', trainable=True)
def build(self, input_shape):
input_shape = tensor_shape.TensorShape(input_shape)
if tensor_shape.dimension_value(input_shape[-1]) is None:
raise ValueError('The last dimension of the inputs to `MyBasicLayer` should be defined. Found `None`.')
super().build(input_shape)
def call(self, inputs):
print(inputs)
print(self.w)
return tf.math.multiply(tf.dtypes.cast(inputs,dtype='float32'),self.w)
这是 model 的代码:
import numpy as np
import tensorflow as tf
import os
from tensorflow.keras import Sequential
from my_basic_layer import MyBasicLayer
from tensorflow.keras.optimizers import Adam
from tensorflow.keras.utils import to_categorical
from tensorflow.python.keras.layers import Activation
from tensorflow.keras import activations
k = 2.
# load the dataset
inset = np.array([[i] for i in range(40)], dtype='float32')
outset = inset * k
#outset = to_categorical(outset, num_classes =256)
# define the model
model = Sequential()
model.add(MyBasicLayer(input_shape=(1,))) #input_shape=(4,)
#model.add(Activation(activations.softmax))
# compile the model
model.compile()
# fit the model
model.fit(inset, outset)
model.summary()
也许与我所知道的一切有关:
我想在编译之前有一个 model.summary() 但我得到了
此 model 尚未构建。 首先通过调用build()
或使用一些数据调用fit()
来构建 model,或者在第一层中指定input_shape
参数以进行自动构建。
即使在第一层添加了el famoso input_shape
参数。
谢谢
为了社区的利益,在此处指定解决方案(回答部分),即使它出现在评论部分。
错误, ValueError: No gradients provided for any variable: ['Variable:0'].
在上述情况下,是因为在Compiled
Model
时提供了 No Loss Function 。
所以,更换
model.compile()
和
model.compile(loss='categorical_crossentropy')
将修复错误。
为了完整起见,使用Custom Layer
的简单工作示例代码如下所示:
from tensorflow.python.keras import layers
import tensorflow as tf
from tensorflow.python.ops import math_ops
from tensorflow.python.framework import tensor_shape
import h5py
import numpy as np
class MyBasicLayer(layers.Layer):
def __init__(self, **kwargs):
super().__init__(self)
self._set_dtype_policy('float32')
self.w = self.add_weight(shape=(1,), initializer='zeros', trainable=True)
def build(self, input_shape):
input_shape = tensor_shape.TensorShape(input_shape)
if tensor_shape.dimension_value(input_shape[-1]) is None:
raise ValueError('The last dimension of the inputs to `MyBasicLayer` should be defined. Found `None`.')
super().build(input_shape)
def call(self, inputs):
print(inputs)
print(self.w)
return tf.math.multiply(tf.dtypes.cast(inputs,dtype='float32'),self.w)
import numpy as np
import tensorflow as tf
import os
from tensorflow.keras import Sequential
from tensorflow.keras.optimizers import Adam
from tensorflow.keras.utils import to_categorical
from tensorflow.python.keras.layers import Activation
from tensorflow.keras import activations
k = 2.
# load the dataset
inset = np.array([[i] for i in range(40)], dtype='float32')
outset = inset * k
#outset = to_categorical(outset, num_classes =256)
# define the model
model = Sequential()
model.add(MyBasicLayer(input_shape=(1,))) #input_shape=(4,)
# compile the model
model.compile(loss='categorical_crossentropy')
# fit the model
model.fit(inset, outset)
model.summary()
上述代码的Output如下所示:
Tensor("IteratorGetNext:0", shape=(None, 1), dtype=float32)
<tf.Variable 'Variable:0' shape=(1,) dtype=float32>
Tensor("IteratorGetNext:0", shape=(None, 1), dtype=float32)
<tf.Variable 'Variable:0' shape=(1,) dtype=float32>
2/2 [==============================] - 0s 2ms/step - loss: nan
Model: "sequential_3"
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
my_basic_layer_3 (MyBasicLay multiple 1
=================================================================
Total params: 1
Trainable params: 1
Non-trainable params: 0
希望这可以帮助。 快乐学习!
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.