繁体   English   中英

自定义环境中的 Tensorflow 2.0 DQN 代理问题

[英]Tensorflow 2.0 DQN Agent Issue with Custom Environment

所以我一直在关注 DQN 代理示例/教程,并按照示例进行设置,唯一的区别是我构建了自己的自定义 Python 环境,然后将其封装在 TensorFlow 中。 然而,无论我如何塑造我的观察和行动规范,每当我给它一个观察并请求一个行动时,我似乎都无法让它发挥作用。 这是我得到的错误:

tensorflow.python.framework.errors_impl.InvalidArgumentError: In[0] 不是矩阵。 相反,它具有形状 [10] [Op:MatMul]

这是我设置代理的方式:

layer_parameters = (10,) #10 layers deep, shape is unspecified

#placeholders 
learning_rate = 1e-3  # @param {type:"number"}
train_step_counter = tf.Variable(0)

#instantiate agent

optimizer = tf.compat.v1.train.AdamOptimizer(learning_rate=learning_rate)

env = SumoEnvironment(self._num_actions,self._num_states)
env2 = tf_py_environment.TFPyEnvironment(env)
q_net= q_network.QNetwork(env2.observation_spec(),env2.action_spec(),fc_layer_params = layer_parameters)

print("Time step spec")
print(env2.time_step_spec())

agent = dqn_agent.DqnAgent(env2.time_step_spec(),
env2.action_spec(),
q_network=q_net,
optimizer = optimizer,
td_errors_loss_fn=common.element_wise_squared_loss,
train_step_counter=train_step_counter)

这是我设置环境的方式:

class SumoEnvironment(py_environment.PyEnvironment):

def __init__(self, no_of_Actions, no_of_Observations):

    #this means that the observation consists of a number of arrays equal to self._num_states, with datatype float32
    self._observation_spec = specs.TensorSpec(shape=(16,),dtype=np.float32,name='observation')
    #action spec, shape unknown, min is 0, max is the number of actions
    self._action_spec = specs.BoundedArraySpec(shape=(1,),dtype=np.int32,minimum=0,maximum=no_of_Actions-1,name='action')


    self._state = 0
    self._episode_ended = False

这是我的输入/观察结果:

tf.Tensor([ 0. 0. 0. 0. 0. 0. 0. 0. -1. -1. -1. -1. 0. 0. 0. -1.], shape=(16,) , dtype=float32)

我试过尝试 Q_Net 的形状和深度,在我看来,错误中的 [10] 与我的 q 网络的形状有关。 将其层参数设置为 (4,) 会产生以下错误:

tensorflow.python.framework.errors_impl.InvalidArgumentError: In[0] 不是矩阵。 相反,它具有形状 [4] [Op:MatMul]

在你的Python环境中,你应该定义你的self._observation_spec作为类型BoundedArraySpec代替TensorSpec ,然后tf_py_environment.TFPyEnvironment(env)转换Python环境为tensorflow环境。

不确定它会导致该错误,但至少它是代码的问题。

您可以尝试如下设置图层参数,

layer_parameters = (16,)

q 网络将尝试通过当前状态预测下一个动作。 状态的形状应该与 q 网络的底层 fc 网络的输入相匹配。

从错误消息中的关键字矩阵,我假设 TF 需要一个二维张量而不是一维张量。

我建议将图层参数设置为(4, 1) (或(1, 4) )。

我将尝试使用它来验证我的答案。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM