MorvanZhou / Reinforcement-learning-with-tensorflow

Simple Reinforcement learning tutorials, 莫烦Python 中文AI教学

Home Page:https://mofanpy.com/tutorials/machine-learning/reinforcement-learning/

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

关于open AI gym运行报错

Jackmeory opened this issue · comments

我下载了DQN的代码,发现运行报错,主要错误在两个地方上
1.choose_action(self, observation):
observation = observation[np.newaxis, :]出现错误为TypeError: tuple indices must be integers or slices, not tuple
2.在修改了第一部分的错误之后(通过课程讨论区一位朋友提供的想法先observation=np.array(observation)然后再进行reshape,发现在transition部分又出现错误,提示输入的transition和self.memory列数不同,在进行observation的打印之后发现它的格式很奇怪,是(array([ 0.00107828, -0.02266533, -0.03175206, -0.04841794], dtype=float32), {})
这样的一个形式,和observation_的形式也不同,我又回去check了maze的observation和observation_的形式发现maze的是相同,不知道该如何修改RL_brain的代码,希望大神们能给点建议

老兄,我和你遇到的是一样的问题,请问你的解决了吗?

env.reset 的格式会有问题改为:
observation = env.reset()[0]
env.step 会返回五个变量,有一个是执行概率 可以改为:
observation_, reward, done, info, pro = env.step(action)