[英]keras dqn agent expecting more dimentions
我已经基于 openAI 健身房构建了一个自定义环境,我的目标是在该环境上训练 DQN 代理。
在这种环境下,每个观察空间是 1 行 75 列,依此类推
env.observation_space.shape
(75,)
当我构建 model 时,我使用以下内容:
def build_model(states, actions):
model = Sequential()
model.add(Dense(75, activation = 'relu', input_dim = 75))
model.add(Dense(75, activation = 'relu'))
model.add(Dense(actions, activation = 'relu'))
return model
对于三个可能的操作中的每一个,第一层的 output 形状(无,75)和最后一层的 output 形状(无,3)。
在构建我的代理时,我使用:
def build_agent(model, actions):
policy = BoltzmannQPolicy()
memory = SequentialMemory(limit=50000, window_length=1)
dqn = DQNAgent(model=model, memory=memory, policy=policy,
nb_actions=actions, nb_steps_warmup=10, target_model_update=1e-2)
return dqn
但是,拟合代理会引发以下错误:
dqn = build_agent(model, actions)
dqn.compile(Adam(lr=1e-3), metrics=['mae'])
dqn.fit(env, nb_steps=50000, visualize=False, verbose=1)
Error when checking input: expected dense_58_input to have 2 dimensions, but got array with shape (1, 1, 75)
鉴于我的数据观察是 75 列,我不明白如何预期额外的维度。 我是否需要重塑我的输入或重新定义我的 model 的输入层?
为了社区的利益,来自评论部分。
目前使用
rl.agents
。 我使用扁平层作为第一层解决了这个问题。
我看到您在最后一层使用了“relu”激活。 DQN 通常执行回归来预测每个动作的 q 值,并且使用 relu 激活会阻止估计值达到其真实值。 如果你可以分享你的整个代码,社区应该能够提供更多的见解。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.