美文网首页
Playing Atari with Deep Reinforc

Playing Atari with Deep Reinforc

作者: 海街diary | 来源:发表于2018-03-10 00:07 被阅读18次

1. 简介

使用CNN从raw pixel学习Q(s, a),利用experience memory学习Q(s, a),在atari2600 games中的7款游戏上进行了测试,全部超越之前算法,并且在3款游戏上超过了人类。

2. 算法


1. DQN算法


DQN Algorithm

2. 算法细节


DQN Architecture
  • RMSProp
  • Minibatch with 32
  • linearly from 1 to 0.1 over the first million frames, and fixed 0.1 thereafter
  • time steps = 10 million frames, memory size = 1 million
  • skip frames = 4

3.实验

  • same network architecture, same learning algorithm, same hyper parameter across all seven games.
  • Raw pixel cropped to 84x84x4.
  • 在固定时间步下,比较不同算法(其他算法的输入是handcraft-feature)在7款游戏上的、所有episode的reward sum的average;同时,比较在这些episode中reward sum的最大值。此外,包括人类选手的score。
  • 为了适应不同游戏的reward, 在train的时候positive reward=1, negative reward=-1, zero reward=0。
  • 评价的时候使用 for a fixed number of steps(具体数字未提)。

4.收获

  • 2 dense layers for output。
  • 不同游戏时reward 归一,便于generalization。
  • memory size 约为 total steps 的 1/10。
  • RMSProp优化算法
  • 参考文献值的读的:
    《Prioritized Sweeping- Reinforcement Learning with Less Data and Less Real Time》、
    《Deep Auto-Encoder Neural Networks in Reinforcement Learning》

相关文章

网友评论

      本文标题:Playing Atari with Deep Reinforc

      本文链接:https://www.haomeiwen.com/subject/ifqvfftx.html