Fujimoto, S., Meger, D., & Precup, D. (2019). Off-policy deep reinforcement learning without exploration. 36th International Conference on Machine Learning, ICML 2019, 2019-June, 3599–3609.
1. 论文概要
本文解决的问题是 Batch reinforcement learning,批强化学习。这种学习方法是从一个固定的数据集中学习出一个策略,不需要和环境发生进一步的交互。当与环境交互起来费时费力时,批强化学习就是关键的解决方案。批强化学习是介于 Off-policy 强化学习和模仿学习之间的一种方法。
模仿学习的数据收集通过是第二个进程来完成,例如人亲自操作或者精细的编程来实现。假设收集过程中采用的策略是得当的,数据集的质量能得到保证,便可以直接应用模仿学习来从数据集中学习策略。但是大多数模仿学习在面对数据集中的不完整轨迹都会学习失败,或者还需要和环境进一步交互。
大多数 off-policy 强化学习都可以称为 growing batch learning。一边使用数据集(或者称为经验池)中的数据进行学习,一边和环境交互产生新的数据加入数据集。但是当数据集中的数据与当前策略的数据分布差距较大时,off-policy 就会学习失败。本文将 off-policy 存在的主要问题归结于 extrapolation error(推断误差),即错误地估计状态动作对的值,本质上来源于经验池中的数据分布和当前策略不一致。比如,如果经验池中没有选择某个动作的样本,off-policy 就不能学到选择了该动作的策略。
为了解决 off-policy 中的推断误差,本文提出了 Batch-Constrained deep Q-learning (BCQ) 算法,旨在于最大化奖励的同时缩小策略和经验池对状态动作对访问的差异。BCQ 算法的核心是利用 state-conditioned generative model (状态条件生成模型)来只产生先前见过的动作。将这个生成模型与 Q 网络结合,来选择与数据集分布最相似的价值最高的动作。本文还证明了这样的 batch-constrained条件,是要从不完整的数据集中学习有限、确定性 MDP 的值的无偏估计的必要条件。
与模仿学习和 off-policy 强化学习不同,BCQ 算法不再需要与环境进行更深的探索,能够从专家数据集或固定的 suboptimal 数据集中学习。
2. 相关知识
2.1 Bellman operator Tπ
对于给定的策略 π,动作值函数可以通过贝尔曼算子来计算:
TπQ(s,a)=Es′[r+γQ(s′,π(s′))]对于 $\gamma \in 0,1)$,论文 [[1] 证明了贝尔曼算子是一个压缩映射,并存在唯一的不动点 Qπ(s,a) 。
最优动作值函数表示为 Q∗(s,a)=maxπQπ(s,a) 。
2.2 DQN & Q-learning
对于连续的状态空间,将动作值函数表示为神经网络 Qθ(s,a),并运用 Q-learning 方法对动作值函数进行训练的方法称为 DQN 算法。Qθ(s,a) 的训练目标是:
y=r+γQθ′(s′,π(s′)),π(s′)=argmaxaQθ′(s′,a)其中 Qθ′(s,a) 表示目标动作值网络,参数 θ′ 更新采用当前网络参数 θ 的滑动平均:θ′←τθ+(1−τ)θ 。
Q-learning 是一个 off-policy 方法,负责采样的行为策略与学习的目标策略不同。原则上,off-policy 可以采用任意的行为策略。off-policy 方法的损失函数通常是最小化动作值网络估计与从经验回放池 (s,a,r,s′)∈B 采样的状态动作对的值的差异。
2.3 AC & DDPG
对于连续的动作空间,公式 (2) 比较难以处理。AC 方法将策略也用神经网络表示 πϕ ,并通过另一个值网络的估计进行更新。策略网络称为 actor,值网络称为 critic 。
DDPG 是一种 AC 方法,同时运用 Q-learning 对值网络进行估计,目标函数可以表示为:
ϕ←argmaxϕEs∈B[Qθ(s,πϕ(s))]Qθ 可以采用 DQN 方法进行训练。
3. 推断误差
推断误差是指数据集的状态动作访问分布与当前策略的状态动作访问分布不一致。说白了就是不同策略采样的分布不同,在计算动作值函数的时候有关概率肯定有差别。
off-policy 对推断误差的处理是,当前策略(例如greedy)利用的数据全部来源于行动策略(例如epsilon-greedy)时,在贝尔曼方程迭代计算动作值函数的时候应该乘上一连串重要性采样的权重。Q-learning 通过技巧(下一步的 Q 的动作由当前策略(例如greedy)给出)。
推断误差主要来源于以下方面:
数据缺失。如果状态动作对 (s,a) 没有在数据集中,这部分的价值就无法更新,此时误差来源于相似数据的价值和逼近误差。例如,对下一个状态的动作值估计 Qθ(s′,π(s′)) 可能与实际值相差很大,原因是数据集中没有与 (s′,π(s′)) 相近的数据。
模型偏差。由于数据集是有限的,每个状态动作对的访问也是有限的,因此其分布会带来了偏差,计算贝尔曼方程时,期望是针对数据集 B 的数据分布,而不是真实的 MDP:
TπQ(s,a)≈Es′∼B[r+γQ(s′,π(s′))]训练不匹配。即便有足够的数据,从数据集采样时是均匀采样,训练的损失函数:
y≈1|B|∑(s,a,r,s′)∈B‖r+γQθ′(s′,π(s′))−Qθ(s,a)‖2当数据集中的数据分布与当前策略的分布不匹配时,对动作值的估计就会有误差。
需要注意的是,即便将公式 (5) 的权重换成与当前策略相关,如果当前策略最高价值的状态动作对不在数据集中,依然会带来误差。
当前很多 Off-policy 算法都没有考虑推断误差。很多 off-policy 方法能起作用,原因在于他们的数据集采样的都是最近策略的数据,和当前策略差别不大。但是,当面对数据集和当前策略数据分布很不一致的情况,就会表现糟糕。本文做了三个实验,设计了三种不同的数据集来测试 DDPG 面对数据集分布不匹配时的情况。
- Final buffer 。训练一个 behavioral DDPG算法100万步(加入了高斯噪声来保证充分探索)并将遇到的 transition 全部储存在经验池,保证足够的覆盖率。
- Concurrent 。在训练 behavioral DDPG(加入了高斯噪声来保证充分探索)的同时训练 off-policy 的一个 DDPG。它们俩都用 behavioral DDPG 采样的数据集训练。
- Imitation 。一个训练好的 behavioral DDPG 采样 100 万步,不做任何探索。
最后,off-policy DDPG 在这三种数据集中的表现如下图所示,其中 True Value 是通过蒙特卡洛方法计算出来的:
可以看到,off-policy DDPG 表现都远差于 behavioral DDPG。即使对于 concurrent 任务,behavioral DDPG 和 off-policy DDPG 同时训练,两者也有很大的差距。这说明在稳定的状态分布下,初始策略的差异便可导致推断误差。在 final 任务中,off-policy 拥有覆盖面非常大的数据集,但是对值的估计依然不稳定,性能也很差。在 imitation 任务中,即使给出了专家数据集,off-policy 学到的都是非专家动作,导致值估计很快就发散了。
虽然推断误差不一定是正偏的,但当推断误差与强化学习算法中的最大化相结合时,推断误差提供了一个噪音源,可导致持续的高估计偏差。在 on-policy 下,推断误差导致的过高估计,策略就会采集一些 uncertainty 的数据,对这些错误的状态探索之后,值估计就会慢慢修正。但是 off-policy 是基于数据集的,这些误差将会很难被消除。
4. 算法推导
当前的 off-policy 方法只管根据估计的动作值来选择动作,而不考虑动作值估计的准不准。如果在估计当前数据集中不存在的动作,将会带来很大的误差。但如果只选择那些在数据集中的动作空间,动作值就会估计得很准。
为了解决推断误差的问题,本文基于一个简单的思想:选择策略的时候要使得状态动作对的分布与 batch 的相似。满足这个要求的策略称为:batch-constrained 策略。batch-constrained 策略有以下三个目标:
最小化所选择的动作与 batch 中的数据的距离。
产生的状态数据是之前已经熟悉的。
最大化值函数。
其中目标 1 是最重要的。如果不限制在相关的 transition 下的话,值函数的估计就会很差,也就不能达到接下来的目标。因此本文在优化值函数的时候,引入了 future certainty 的衡量,同时加入距离的限制。本文的算法中是通过一个 state-conditioned generative model 来实现。该模型用一个网络来在一个小范围内最优地扰动生成的动作,并利用另一个 Q 网络来选择价值最高的动作。最后还利用了两个 Q 网络估计并取它们的 soft minimum 来作为价值估计的目标,目的是惩罚那些不熟悉的状态的值。
为了便于分析,先从有限的 MDP 和表格型环境出发,再引入到连续环境的 BCQ 算法。
4.1 有限 MDP 引入推断误差
首先重写以下 Q-learning 的更新公式:
Q(s,a)←(1−α)Q(s,a)+α(r+γQ(s′,π(s′)))其中 π(s′)=argmaxa′Q(s′,a′) 。
对于数据集 B 学习的 Q 函数,定义一个对应的 MDP 为 MB 。真实的 MDP 记为 M 。MB 和 M 具有相同的动作空间和状态空间,初始状态为 sinit,初始动作值记为 Q(s,a)。MB 的转移概率 pB(s′|s,a)=N(s,a,s′)∑˜sN(s,a,˜s) ,其中 N(s,a,s′) 表示在数据集 B 遇见 N(s,a,s′) 的数量。如果 ∑˜sN(s,a,˜s)=0,则 pB(sinit|s,a)=1,并且 r(s,a,sinit) 被设置为 Q(s,a) 的初始值。
定理 1: 从数据集 B 中采样进行 Q-learning 学习,在 MDPB 下 Q-learning 最终会收敛到最优动作值函数。
定义 ϵMDP 为有限 MDP 下的推断误差,数学意义是根据数据集 B 计算出的 QπB 和根据真实 MDP 计算出的 Qπ 的差值:
ϵMDP(s,a)=Qπ(s,a)−QπB(s,a)ϵMDP(s,a) 可以重新写成贝尔曼方程的形式:
ϵMDP(s,a)=∑s′(pM(s′|s,a)−pB(s′|s,a))(r(s,a,s′)+γ∑a′π(a′|s′)QπB(a′,s′))+∑s′pM(s′|s,a)γ∑a′π(a′|s′)ϵMDP(s′,a′)这意味推断误差可以视为转移概率的差值的函数,其中动作值视为权重。如果选择一个策略使得两个转移概率的差距最小,那么推断误差也能达到最小。为了简便,重写公式 (8) 如下:
ϵπMDP=∑sμπ(s)∑aπ(a|s)|ϵMDP(s,a)|接下来推导消除推断误差的条件。
引理 1:对于所有的奖励函数,当且仅当对于所有的s′∈S 、 μπ(s)>0、π(a|s)>0 ,满足pB(s′|s,a)=pM(s′|s,a),才能保证 ϵπMDP=0 。
引理 1 告诉我们如果 MB 和 M 有相同的转移概率,那么策略的价值就可以被正确地评估。这就意味着如果一个策略只经历在数据集中的 transition,那么价值就能被正确估计。
用数学语言来讲,定义一个 batch-constrained 策略 π∈ΠB,其中 μπ(s)>0、π(a|s)>0 并且所有的 (s,a)∈B 。同时定义一个 coherent 数据集 B,满足所有的 (s,a,s′)∈B 并且 s′∈B, 除非 s′ 是结束状态。有了这样的数据集,就能保证 batch-constrained 策略的存在,它的价值就能被正确评估。
定理 2:对于确定性的 MDP 和任意的奖励函数,当且仅当策略 π 是 batch-constrained 时,ϵπMDP=0 。另外,如果数据集 B 时 coherent 的,那么这样的策略一定存在,只要初始状态 s0∈B 。
将 batch-constrained 策略 Q-learning 结合形成 batch-constrained Q-learning (BCQL),其更新公式为:
Q(s,a)←(1−α)Q(s,a)+α(r+γmaxa′s.t.(s′,a′)∈BQ(s′,a′))定理 3:给定学习率 α 的 Robbins-Monro 随机收敛条件,以及对环境标准的采样,BCQL 可以收敛到最优动作值函数 Q∗ 。
定理 3 说明对于确定性的 MDP,以及 coherent 的数据集,BCQL 能够收敛到最优策略 $\pi^ \in \Pi_\mathcal{B},对所有\pi \in \Pi_\mathcal{B}和(s,a) \in \mathcal{B}满足Q^{\pi^} \ge Q^\pi(s,a)$ 。
定理 4:给定确定性 MDP 和 coherent 数据集 B,连同学习率 α 的 Robbins-Monro 随机收敛条件,BCQL 将会收敛到 QπB(s,a),其中 π∗(s)=argmaxas.t.(s,a)∈BQπB(s,a) 是最优 batch-constrained 策略。
定理 4 说明 BCQL 能保证学习的策略优于任何的行动策略。与标准的 Q-learning 不同的是,BCQL 没有对状态动作对访问上的要求,只要求数据集是 coherent 的。
4.2 BCQ 算法
将 BCQL 算法拓展到连续环境,本文提出了 BCQ 算法。其中为了满足 Batch-constrained 的条件,BCQ 利用了一个生成模型。对于给定的状态,BCQ 利用生成模型来生成与 batch 相似的动作集合,并通过 Q 网络来选择价值最高的动作。另外,本文还对价值估计过程增加了对未来稀有的状态进行惩罚,与 Clipped Double Q-learning 算法 [2] 类似。最后,BCQ 能学到与数据集的状态动作对访问分布相似的策略。
给定状态 s,本文将 (s,a) 和数据集 B 中的状态动作对的相似度建模成条件概率 PGB(a|s) 。为了估计 PGB(a|s) ,本文采用了参数化的生成模型 Gω(s),从中采样动作来逼近 argmaxaPGB(a|s) 。
对于生成模型,本文采用了变分自动编码器(conditional variational auto-encoder, VAE)。为了提高生成动作的多样性,本文引入了扰动模型 ξϕ(s,a,Φ),对动作 a 的扰动范围是 [−Φ,Φ] 。此时策略可以表示为:
π(s)=argmaxai+ξϕ(s,ai,Φ)Qθ(s,ai+ξϕ(s,ai,Φ)),{ai∼Gω(s)}ni=1参数 n 和 Φ 的选择让 BCQ 算法介于模仿学习和强化学习之间。当 Φ=0 且 n=1 时,BCQ 就类似于模仿学习;当 Φ=amax−amin 且 n→∞ 时,BCQ 算法就类似于 Q-learning 算法。
扰动模型 ξϕ 的训练和 DDPG 算法的训练目标类似:
ϕ←argmaxϕ∑(s,a)∈BQθ(s,a+ξϕ(s,a,Φ))为了对未来一些不常见的状态进行惩罚,本文采用 Clipped Double Q-learning 算法 [2] 对动作值 Q 进行估计,也就是训练两个动作值网络 {Qθ1,Qθ2},取它们的最小值作为动作值的估计。本文对 Clipped Double Q-learning 算法进行了一点改进,对两个动作值采用新的结合方式:
y=r+γmaxai[λminj=1,2Qθ′j(s′,ai)+(1−λ)maxj=1,2Qθ′j(s′,ai)]其中超参数 λ 是控制对不确定的状态的惩罚力度。当 λ=1 时,公式 (???) 其实是另一篇论文 Clipped Double Q-learning 的做法 [2] ,也是本文的一作提出来的。
算法和一般的 DQN 相比,BCQ 使用了两个 Q 网络和两个目标 Q 网络,一个扰动网络 ξϕ 和对应的目标扰动网络以及一个 VAE 生成模型 Gω(s)。在训练时,首先从数据集中采样 transition,然后训练 VAE 模型,生成和 batch 中相似的 action,然后从生成器中采样,用扰动网络扰动动作的取值。最后更新 Q 网络和目标 Q 网络。
5. 工程设置
参考文献
[1] Bertsekas, D. P. and Tsitsiklis, J. N. Neuro-Dynamic Pro- gramming. Athena scientific Belmont, MA, 1996.
[2] Fujimoto, S., van Hoof, H., and Meger, D. Addressing func- tion approximation error in actor-critic methods. In Inter- national Conference on Machine Learning, volume 80, pp. 1587–1596. PMLR, 2018.
v1.5.2