![](/img/trans.png)
[英]How do apply Q-learning to an OpenAI-gym environment where multiple actions are taken at each time step?
[英]How do I get Target Q-values in Bipedalwalker-v3 in openai-gym, reinforcement learning?
我是强化学习的新手,我正在尝试使用Deep Q learning解决BipedalWalker-v3 。 但是我发现env.action_space.sample() = numpy array with 4 elements
,我不知道如何添加rewards
并将其乘以(1-done_list)
,我尝试从LunarLander项目中复制我的代码。
在月球着陆器的情况下, env.action_space.sample() = integer
。
这是我更新“月球着陆器”model 的方法:
def update_model(self):
random_sample = random.sample(self.replay_buffer, self.batch_size)
states, actions, rewards, next_states, done_list = self.get_attributes_from_sample(random_sample)
# How do I fix the below target for BipedalWalker
targets = rewards + self.gamma * (np.max(self.model.predict_on_batch(next_states), axis=1)) * (1 - done_list)
target_vec = self.model.predict_on_batch(states) # shape = (64, 4)
indexes = np.array([i for i in range(self.batch_size)])
target_vec[[indexes], [actions]] = targets
self.model.fit(states, target_vec, epochs=1, verbose=0)
这在 LunarLander 环境中运行得非常好。
我需要在BiPedalWalker项目中实现这一点。 可以在这里找到: 链接
然而,即使在 1000 集之后,model 也没有产生任何好的结果。
这是BipedalWalker的相同方法:
def update_model(self):
# replay_buffer size Check
if len(self.replay_buffer) < self.batch_size or self.counter != 0:
return
# Early Stopping
if np.mean(self.rewards_list[-10:]) > 180:
return
# take a random sample:
random_sample = random.sample(self.replay_buffer, self.batch_size)
# Extract the attributes from sample
states, actions, rewards, next_states, done_list = self.get_attributes_from_sample(random_sample)
targets = np.tile(rewards, (self.num_action_space, 1)).T + np.multiply(np.tile((1 - done_list), (self.action_space.sample().size, 1)).T, np.multiply(self.gamma, self.model.predict_on_batch(next_states)))
# print(targets.shape) = (64,)
target_vec = self.model.predict_on_batch(states) # shape = (64, 4)
indexes = np.array([i for i in range(self.batch_size)])
target_vec = targets
self.model.fit(states, target_vec, epochs=1, verbose=0)
使用 DQN 算法解决连续动作空间环境(如 bipedal walker v3)是一个坏主意,因为 DQN 算法依赖于对(状态、动作)的迭代优化过程。 我建议更改为另一种算法,例如 TD3、SAC 或 PPO。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.