您当前的位置: 首页 > 

静静的喝酒

暂无认证

  • 3浏览

    0关注

    99博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

策略梯度方法介绍——蒙特卡洛策略梯度方法(REINFORCE)

静静的喝酒 发布时间:2022-07-23 16:05:47 ,浏览量:3

策略梯度方法介绍——蒙特卡洛策略梯度方法REINFORCE
  • 目录
    • 回顾: ∇ J ( θ ) \nabla \mathcal J(\theta) ∇J(θ)梯度求解结果
    • 策略梯度定理的延伸
    • 蒙特卡洛策略梯度方法(REINFORCE)简单理解

目录

上一节介绍了 ∇ J ( θ ) \nabla \mathcal J(\theta) ∇J(θ)的求解过程的推导,本节将基于上述推导进行补充,构建更加泛化的表达式,从而引出REINFORCE算法的更新方程。

回顾: ∇ J ( θ ) \nabla \mathcal J(\theta) ∇J(θ)梯度求解结果

上一节介绍关于 ∇ J ( θ ) \nabla \mathcal J(\theta) ∇J(θ)梯度方向的求解结果如下: ∇ J ( θ ) = ∇ V π ( s 0 ) ∝ ∑ s ∈ S μ ( s ) ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) \begin{aligned} \nabla \mathcal J(\theta) & = \nabla V_\pi(s_0) \\ & \propto \sum_{s \in \mathcal S} \mu(s) \sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) \end{aligned} ∇J(θ)​=∇Vπ​(s0​)∝s∈S∑​μ(s)a∈A(s)∑​∇π(a∣s)qπ​(s,a)​ 其中 s 0 s_0 s0​表示情节的初始状态, μ ( s ) \mu(s) μ(s)表示某状态 s s s在情节中出现的概率: μ ( s ) = η ( s ) ∑ s ′ η ( s ′ ) \mu(s) = \frac{\eta(s)}{\sum_{s'}\eta(s')} μ(s)=∑s′​η(s′)η(s)​ η ( s ) \eta(s) η(s)表示某状态 s s s在情节中出现的平均次数。

策略梯度定理的延伸

观察 ∇ J ( θ ) \nabla \mathcal J(\theta) ∇J(θ)梯度方向的求解结果: ∇ J ( θ ) ∝ ∑ s ∈ S μ ( s ) ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) \nabla \mathcal J(\theta) \propto \sum_{s \in \mathcal S} \mu(s) \sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) ∇J(θ)∝s∈S∑​μ(s)a∈A(s)∑​∇π(a∣s)qπ​(s,a) 发现 μ ( s ) \mu(s) μ(s)本身是状态 s s s的出现概率 → \to → 可以将 ∑ s ∈ S μ ( s ) \sum_{s \in \mathcal S} \mu(s) ∑s∈S​μ(s)表示为表示为期望形式: ∑ s ∈ S μ ( s ) ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) = E ? [ ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) ] \sum_{s \in \mathcal S} \mu(s) \sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) = \mathbb E_{?}\left[\sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a)\right] s∈S∑​μ(s)a∈A(s)∑​∇π(a∣s)qπ​(s,a)=E?​⎣ ⎡​a∈A(s)∑​∇π(a∣s)qπ​(s,a)⎦ ⎤​ 问题:期望符号中的概率分布 是谁(上式中“?”部分); 既然是关于状态的概率分布,我们定义这样一个分布符号: ρ π θ \rho^{\pi_{\theta}} ρπθ​,使得状态 s s s的出现概率服从该分布。 需要注意的点:该分布不仅和策略函数 π ( a ∣ s ; θ ) \pi(a \mid s;\theta) π(a∣s;θ)相关,因为‘状态转移过程’是系统内部的变化,因此这个出现概率的分布还与‘环境’相关。 ∀ s ∈ S → s ∼ ρ π θ ( s ) = lim ⁡ t → ∞ P ( S t = s ∣ A 0 : t ∼ π ) \forall s \in \mathcal S \to s \sim \rho^{\pi_{\theta}}(s) = \mathop{\lim}\limits_{t \to \infty}P(S_t = s \mid A_{0:t} \sim \pi) ∀s∈S→s∼ρπθ​(s)=t→∞lim​P(St​=s∣A0:t​∼π) 上述式子整理如下: E s ∼ ρ π θ [ ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) ] \mathbb E_{s \sim \rho^{\pi_{\theta}}}\left[\sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a)\right] Es∼ρπθ​​⎣ ⎡​a∈A(s)∑​∇π(a∣s)qπ​(s,a)⎦ ⎤​ 为了使公式规范化:

  • 我们将所有的状态 s s s,动作 a a a替换为 t t t时刻的状态 S t S_t St​,状态 S t S_t St​条件下的动作 A t A_t At​;
  • 上述公式中的 π ( a ∣ s ) \pi(a \mid s) π(a∣s)是策略函数,因此替换为 π ( a ∣ s ; θ ) \pi(a \mid s;\theta) π(a∣s;θ);

替换结果如下: E S t ∼ ρ π θ [ ∑ A t ∈ A ( S t ) ∇ π ( A t ∣ S t ; θ ) q π ( S t , A t ) ] \mathbb E_{S_t \sim \rho^{\pi_{\theta}}}\left[\sum_{A_t \in \mathcal A(S_t)} \nabla \pi(A_t \mid S_t;\theta)q_\pi(S_t,A_t)\right] ESt​∼ρπθ​​⎣ ⎡​At​∈A(St​)∑​∇π(At​∣St​;θ)qπ​(St​,At​)⎦ ⎤​

继续观察:上式中存在一个 ∑ A t ∈ A ( S t ) \sum_{A_t \in \mathcal A(S_t)} ∑At​∈A(St​)​,因此存在一个想法是 将该部分也化成期望形式。但 ∇ π ( A t ∣ S t ; θ ) \nabla \pi(A_t \mid S_t;\theta) ∇π(At​∣St​;θ)本身并不是策略函数,因此,我们需要引入一个策略函数 π ( A t ∣ S t ; θ ) \pi(A_t \mid S_t;\theta) π(At​∣St​;θ)。具体过程如下: E S t ∼ ρ π θ [ ∑ A t ∈ A ( S t ) ∇ π ( A t ∣ S t ; θ ) q π ( S t , A t ) ] = E S t ∼ ρ π θ [ ∑ A t ∈ A ( S t ) π ( A t ∣ S t ; θ ) ∇ π ( A t ∣ S t ; θ ) π ( A t ∣ S t ; θ ) q π ( S t , A t ) ] \begin{split} & \mathbb E_{S_t \sim \rho^{\pi_{\theta}}} \left[\sum_{A_t \in \mathcal A(S_t)} \nabla \pi(A_t \mid S_t;\theta)q_\pi(S_t,A_t) \right] \\ & = \mathbb E_{S_t \sim \rho^{\pi_{\theta}}}\left[\sum_{A_t \in \mathcal A(S_t)} \pi(A_t \mid S_t;\theta) \frac{\nabla \pi(A_t \mid S_t;\theta)}{\pi(A_t \mid S_t;\theta)}q_\pi(S_t,A_t) \right] \end{split} ​ESt​∼ρπθ​​⎣ ⎡​At​∈A(St​)∑​∇π(At​∣St​;θ)qπ​(St​,At​)⎦ ⎤​=ESt​∼ρπθ​​⎣ ⎡​At​∈A(St​)∑​π(At​∣St​;θ)π(At​∣St​;θ)∇π(At​∣St​;θ)​qπ​(St​,At​)⎦ ⎤​​ 此时,可以将 ∑ A t ∈ A ( S t ) π ( A t ∣ S t ; θ ) \sum_{A_t \in \mathcal A(S_t)} \pi(A_t \mid S_t;\theta) ∑At​∈A(St​)​π(At​∣St​;θ)写成期望形式,并记策略函数符号为 π θ \pi_{\theta} πθ​: 注意:状态-动作价值函数服从的也是 π θ \pi_{\theta} πθ​,因此同步修改为 q π θ ( S t , A t ) q_{\pi_{\theta}}(S_t,A_t) qπθ​​(St​,At​)。 = E S t ∼ ρ π θ [ E A t ∼ π θ [ ∇ π ( A t ∣ S t ; θ ) π ( A t ∣ S t ; θ ) q π θ ( S t , A t ) ] ] = E S t ∼ ρ π θ ; A t ∼ π θ [ ∇ π ( A t ∣ S t ; θ ) π ( A t ∣ S t ; θ ) q π θ ( S t , A t ) ] \begin{split} & = \mathbb E_{S_t \sim \rho^{\pi_{\theta}}}\left[\mathbb E_{A_t\sim\pi_{\theta}}\left[\frac{\nabla \pi(A_t \mid S_t;\theta)}{\pi(A_t \mid S_t;\theta)}q_{\pi_{\theta}}(S_t,A_t)\right] \right] \\ & = \mathbb E_{S_t \sim \rho^{\pi_{\theta}};A_t\sim\pi_{\theta}}\left[\frac{\nabla \pi(A_t \mid S_t;\theta)}{\pi(A_t \mid S_t;\theta)}q_{\pi_{\theta}}(S_t,A_t)\right] \end{split} ​=ESt​∼ρπθ​​[EAt​∼πθ​​[π(At​∣St​;θ)∇π(At​∣St​;θ)​qπθ​​(St​,At​)]]=ESt​∼ρπθ​;At​∼πθ​​[π(At​∣St​;θ)∇π(At​∣St​;θ)​qπθ​​(St​,At​)]​

继续观察期望中的第一项式子,可以将其 看成 log ⁡ \log log函数 的梯度结果。即: 这里的log函数如果没有声明,默认的底数均为‘自然对数’e ∇ π ( A t ∣ S t ; θ ) π ( A t ∣ S t ; θ ) = ∇ log ⁡ π ( A t ∣ S t ; θ ) \frac{\nabla \pi(A_t \mid S_t;\theta)}{\pi(A_t \mid S_t;\theta)} = \nabla \log \pi(A_t \mid S_t;\theta) π(At​∣St​;θ)∇π(At​∣St​;θ)​=∇logπ(At​∣St​;θ)

至此,最终将策略梯度定理表示为如下形式: ∇ J ( θ ) = E S t ∼ ρ π θ ; A t ∼ π θ [ ∇ log ⁡ π ( A t ∣ S t ; θ ) q π θ ( S t , A t ) ] \nabla \mathcal J(\theta) = \mathbb E_{S_t \sim \rho^{\pi_{\theta}};A_t\sim\pi_{\theta}}\left[\nabla \log \pi(A_t \mid S_t;\theta)q_{\pi_{\theta}}(S_t,A_t)\right] ∇J(θ)=ESt​∼ρπθ​;At​∼πθ​​[∇logπ(At​∣St​;θ)qπθ​​(St​,At​)]

蒙特卡洛策略梯度方法(REINFORCE)简单理解

之所以将 ∇ J ( θ ) \nabla \mathcal J(\theta) ∇J(θ)化简为期望形式,是因为期望形式就可以通过 蒙特卡洛方法 采样的方式来近似求解 ∇ J ( θ ) \nabla \mathcal J(\theta) ∇J(θ)。

观察策略梯度定理: ∇ J ( θ ) = E S t ∼ ρ π θ ; A t ∼ π θ [ ∇ log ⁡ π ( A t ∣ S t ; θ ) q π θ ( S t , A t ) ] \nabla \mathcal J(\theta) = \mathbb E_{S_t \sim \rho^{\pi_{\theta}};A_t\sim\pi_{\theta}}\left[\nabla \log \pi(A_t \mid S_t;\theta)q_{\pi_{\theta}}(S_t,A_t)\right] ∇J(θ)=ESt​∼ρπθ​;At​∼πθ​​[∇logπ(At​∣St​;θ)qπθ​​(St​,At​)] 本质上, q π θ ( S t , A t ) q_{\pi_{\theta}}(S_t,A_t) qπθ​​(St​,At​)表示 在 π θ \pi_{\theta} πθ​条件下,给定 S t , A t S_t,A_t St​,At​后回报(Return) G t G_t Gt​的期望。即: q π θ ( S t , A t ) = E A t ∼ π θ [ G t ∣ S t , A t ] q_{\pi_{\theta}}(S_t,A_t) = \mathbb E_{A_t \sim\pi_{\theta}}[G_t \mid S_t,A_t] qπθ​​(St​,At​)=EAt​∼πθ​​[Gt​∣St​,At​] 因此,策略梯度定理表示如下: E A t ∼ π θ [ G t ∣ S t , A t ] \mathbb E_{A_t \sim\pi_{\theta}}[G_t \mid S_t,A_t] EAt​∼πθ​​[Gt​∣St​,At​]中的分布和前面重复,消掉了,只留一个~ ∇ J ( θ ) = E S t ∼ ρ π θ ; A t ∼ π θ [ ∇ log ⁡ π ( A t ∣ S t ; θ ) E A t ∼ π θ [ G t ∣ S t , A t ] ] = E S t ∼ ρ π θ ; A t ∼ π θ [ ∇ log ⁡ π ( A t ∣ S t ; θ ) G t ] \begin{aligned} \nabla \mathcal J(\theta) & = \mathbb E_{S_t \sim \rho^{\pi_{\theta}};A_t\sim\pi_{\theta}}\left[\nabla \log \pi(A_t \mid S_t;\theta)\mathbb E_{A_t \sim\pi_{\theta}}[G_t \mid S_t,A_t]\right] \\ & = \mathbb E_{S_t \sim \rho^{\pi_{\theta}};A_t\sim\pi_{\theta}}\left[\nabla \log \pi(A_t \mid S_t;\theta)G_t\right] \end{aligned} ∇J(θ)​=ESt​∼ρπθ​;At​∼πθ​​[∇logπ(At​∣St​;θ)EAt​∼πθ​​[Gt​∣St​,At​]]=ESt​∼ρπθ​;At​∼πθ​​[∇logπ(At​∣St​;θ)Gt​]​

至此,我们可以通过采样 ∇ log ⁡ π ( A t ∣ S t ; θ ) G t \nabla \log \pi(A_t \mid S_t;\theta)G_t ∇logπ(At​∣St​;θ)Gt​对策略函数的参数 θ \theta θ进行 增量更新: θ t + 1 = θ t + α ∇ log ⁡ π ( A t ∣ S t ; θ ) G t \theta_{t+1} = \theta_{t} + \alpha \nabla \log \pi(A_t \mid S_t;\theta)G_t θt+1​=θt​+α∇logπ(At​∣St​;θ)Gt​

用于估计最优策略的REINFORCE算法表示如下:

REINFORCE算法(用于估计最优策略)输入(Input)可微策略函数 π ( a ∣ s ; θ ) \pi(a \mid s;\theta) π(a∣s;θ),衰减因子 γ \gamma γ,学习率 α \alpha α初始化操作(Initialization operation)初始化策略函数的参数 θ \theta θ;算法过程(Algorithmic Process)1. repeat 对每一个情节: k = 0 , 1 , 2 , . . . k=0,1,2,... k=0,1,2,...2. 根据策略函数 π ( a ∣ s ; θ ) \pi(a \mid s;\theta) π(a∣s;θ),生成一组情节: S 0 , A 0 , R 1 , S 1 , A 1 , ⋯   , S T − 1 , A T − 1 , S T , R T S_0,A_0,R_1,S_1,A_1,\cdots,S_{T-1},A_{T-1},S_T,R_T S0​,A0​,R1​,S1​,A1​,⋯,ST−1​,AT−1​,ST​,RT​ 3. G ← \gets ← 0 (后向前遍历) 4.   repeat   t = T − 1 , T − 2 , ⋯ 0 t =T-1,T-2,\cdots0 t=T−1,T−2,⋯0 5.        G ← γ G + R t + 1 G \gets \gamma G + R_{t+1} G←γG+Rt+1​6.        θ ← θ + α γ t ∇ ln ⁡ π ( A t ∣ S t ; θ ) G \theta \gets \theta + \alpha \gamma^t \nabla \ln \pi(A_t \mid S_t;\theta)G θ←θ+αγt∇lnπ(At​∣St​;θ)G

θ \theta θ在迭代过程中,通过学习率 α \alpha α配合衰减因子 γ \gamma γ,随着迭代次数的增加,逐渐减小参数更新幅度(即步长(step))。从而找到最优参数。

下一节将介绍蒙特卡洛梯度方法(REINFORCE)的其他变形方式。

相关参考: 【强化学习】策略梯度方法-REINFORCE 深度强化学习原理、算法pytorch实战 —— 刘全,黄志刚编著

关注
打赏
1664446683
查看更多评论
立即登录/注册

微信扫码登录

0.0434s