[强化学习论文] (HDQN) Integrating Temporal Abstraction and Intrinsic Motivation

论文

总结

1.主要贡献

  • 提出了一种分层强化学习方法
  • 该方法使用了长期目标(long-term goal)指导短期动作(short-term choice)的选择

2.主要方法

  • 两个重要组件
    • Meta-controller
      • 负责生成长期目标long term goal;
      • 通过训练Meta-controller使其能够根据当前state来选取目标goal,使得extrinsic reward最大;
      • 当且仅当底层执行器Controller完成一个episode或者达成某个Meta-controller产生的goal的时候,Meta-controller再去产生新的目标goal。
    • Controller
      • 从环境中获取当前state,并从Meta-controller中获取当前目标goal;
      • 基于当前goal和当前的state,来选取最大化intrinsic reward期望的action,这里与传统的rf相同只是增加了目标goal,这里通过估计action-value function ( $Q_1(s_t, a_t;\theta_1,g_t)$ )来做;
      • Reward 是 intrinsic的,在agent内部,这个intrinsic reward由Critic网络产生,当且仅当当前的目标达到时,才会产生intrinsic reward。

preview

  • 在蒙特祖玛的复仇(Montezuma’s Revenge)上实验
    • 目标Goal是一些手动设置的特定游戏object,比如钥匙,在实验中,将设置一个与游戏屏幕大小相等的遮罩层,当且仅当目标object的位置上的二进制位是1,其他像素上的二进制值为0;
    • Meta-controller通过Q function选择要到达的下一个Goal;
    • Controller根据Q function选择能够到达Goal的action, 其不断迭代选择action,直到其完成一个episode或到达Goal;
    • 每当达到目标Goal时,Critic都会向Controller提供内在奖励(intrinsic reward);
    • CNN用于Meta-controller和Controller,在架构上类似于Atari-DQN论文(shallow CNNs);
    • 使用两个Replay buffer,一个用于Meta-controller(大小为40k),一个用于Controller(大小为1M);
    • Meta-controller和Controller两者都遵循epsilon-greedy。Epsilon从1.0开始,减小至0.1;
    • 折扣因子γ为0.9;
    • 使用SGD优化。

1

2

本文标题:[强化学习论文] (HDQN) Integrating Temporal Abstraction and Intrinsic Motivation

文章作者:zhkmxx930

发布时间:2019年01月23日 - 10:01

最后更新:2019年02月19日 - 23:02

原始链接:https://zhkmxx9302013.github.io/post/10845.html

许可协议: 署名-非商业性使用-禁止演绎 4.0 国际 转载请保留原文链接及作者。

一分钱也是爱,mua~