繁体   English   中英

Keras LSTM 层序贯_10的输入0与层不兼容

[英]Keras LSTM Input 0 of layer sequential_10 is incompatible with the layer

我的 LSTM 代码如下:

def myLSTM(i_shape, o_shape):
    input = keras.layers.Input(i_shape)
    model = Sequential()
    x = keras.layers.LSTM(128, return_sequences = True, input_shape = (x_train.shape[1], 1))(input)
    x = keras.layers.Dropout(0.2)(x)
    x = keras.layers.LSTM(128, return_sequences = True)(x)
    x = keras.layers.Dropout(0.2)(x)
    x = keras.layers.LSTM(64, return_sequences = True)(x)
    x = keras.layers.Dropout(0.2)(x)
    output = layers.Dense(units = 1, activation='softmax')(x)
    return Model(input, output)

my_lstm = myLSTM(x_train.shape[1:], y_train.shape[1:])
my_lstm.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['acc'])
my_lstm.summary()

我收到以下错误:

ValueError: Input 0 of layer lstm is incompatible with the layer: expected ndim=3, found ndim=2. Full shape received: (None, 20)

这个错误让我感到困惑,因为我觉得一个 3 维形状被传递到 LSTM 中,但它表明检测到一个 2 维形状。

我的数据的维度如下:x_train 形状是(207, 20),y_train 形状是(207, 5),x_test 形状是(24, 20),y_test 形状是(24, 5),

正如您在我的代码中看到的那样,我还在为分类用例运行此 LSTM。

正如@Andrey 提到的那样,LSTM 期望有一个 3D 形状数据[batch_size, time_steps, feature_size]

例如,如果我们为 32 个批次样本中的每一个提供 10 个时间步长中的每一个,一个 8 维向量: 输入数据形状应该类似于,

X_train = tf.random.normal([32, 10, 8])

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM