您当前的位置: 首页 > 

静静的喝酒

暂无认证

  • 4浏览

    0关注

    99博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

策略梯度方法介绍——策略梯度定理推导过程

静静的喝酒 发布时间:2022-07-22 17:54:13 ,浏览量:4

策略梯度方法介绍——策略梯度定理推导过程
  • 目录
    • 回顾:目标函数与状态分布
    • 策略梯度定理
      • 策略梯度定理求解过程

目录

上一节介绍了Policy-Based强化学习方法的优势,并介绍了影响目标函数梯度 ∇ J ( θ ) \nabla\mathcal J(\theta) ∇J(θ)的核心要素——状态分布。本节将使用状态分布对策略梯度定理进行表示。

回顾:目标函数与状态分布

上一节介绍到:

  • 通常将目标函数 J ( θ ) \mathcal J(\theta) J(θ)定义为 情节中初始状态回报的期望,即初始状态的状态价值函数: J ( θ ) = E π ( a ∣ s ; θ ) [ G 0 ∣ S = s 0 ] ≜ V π ( a ∣ s ; θ ) ( s 0 ) \mathcal J(\theta) = \mathbb E_{\pi(a \mid s;\theta)}[G_0 \mid S = s_0] \triangleq V_{\pi(a \mid s;\theta)}(s_0) J(θ)=Eπ(a∣s;θ)​[G0​∣S=s0​]≜Vπ(a∣s;θ)​(s0​)

  • 情节中策略函数 π ( a ∣ s ; θ ) \pi(a \mid s;\theta) π(a∣s;θ)的变化会影响状态分布的变化,而状态分布的变化直接影响目标函数 J ( θ ) \mathcal J(\theta) J(θ)的变化。

    关于状态 s s s出现的平均次数表示如下: η ( s ) = h ( s ) + ∑ s ˉ η ( s ˉ ) ∑ a π ( a ∣ s ˉ ) P ( s ∣ s ˉ , a ) = ∑ k = 0 T − 1 P r { s 0 → s , k , π } \begin{aligned} \eta(s) & = h(s) + \sum_{\bar s}\eta(\bar s)\sum_{a}\pi(a \mid \bar s)P(s \mid \bar s,a) \\ & = \sum_{k=0}^{T-1}P_r\{s_0 \to s,k,\pi\} \end{aligned} η(s)​=h(s)+sˉ∑​η(sˉ)a∑​π(a∣sˉ)P(s∣sˉ,a)=k=0∑T−1​Pr​{s0​→s,k,π}​ 其中, P r { s 0 → s , k , π } P_r\{s_0 \to s,k,\pi\} Pr​{s0​→s,k,π}表示初始状态 s 0 s_0 s0​,在策略函数 π \pi π的条件下,经过 k k k次状态转移,最终达到状态 s s s的概率。即 存在 P r { s 0 → s , k , π } P_r\{s_0 \to s,k,\pi\} Pr​{s0​→s,k,π}的概率,初始状态 s 0 s_0 s0​经过 k k k次状态转移后的状态必然是状态 s s s(必出现一次状态 s s s)。 因而,状态 s s s在情节中出现的平均次数 η ( s ) \eta(s) η(s)即 从初始时刻 t = 0 t = 0 t=0开始,到情节结束的前一个时刻 T − 1 T-1 T−1之间所有时刻“出现一次状态 s s s”的平均次数之和。

  • 状态 s s s的出现概率表示如下: μ ( s ) = η ( s ) ∑ s ′ η ( s ′ ) \mu(s) = \frac{\eta(s)}{\sum_{s'} \eta(s')} μ(s)=∑s′​η(s′)η(s)​

策略梯度定理

策略梯度定理本质就是求解 目标函数的梯度 ∇ J ( θ ) \nabla \mathcal J(\theta) ∇J(θ), ∇ J ( θ ) \nabla \mathcal J(\theta) ∇J(θ)自身是一个向量,它包含两个要素:

  • 梯度数值;
  • 梯度方向;

相比于梯度数值,我们更关心的是梯度方向——梯度方向会 引导目标函数 J ( θ ) \mathcal J(\theta) J(θ)向最优方向收敛,而梯度数值在迭代过程中会与学习率 α \alpha α相乘,它只参与决定 J ( θ ) \mathcal J(\theta) J(θ)收敛的 步长(step)。 在后续推导过程中会用到该思想。

策略梯度定理求解过程

根据目标函数的描述,将 ∇ J ( θ ) \nabla \mathcal J(\theta) ∇J(θ)表示如下: 为了使推导过程更具有‘普遍性’ -> 将s_0用s表达; ∇ J ( θ ) = ∇ V π ( s ) \nabla \mathcal J(\theta) = \nabla V_\pi(s) ∇J(θ)=∇Vπ​(s) 将 V π ( s ) V_\pi(s) Vπ​(s)使用贝尔曼期望方程进行展开: ∇ V π ( s ) = ∇ ∑ a ∈ A ( s ) π ( a ∣ s ) q π ( s , a ) \nabla V_\pi(s) = \nabla \sum_{a \in \mathcal A(s)}\pi(a \mid s)q_\pi(s,a) ∇Vπ​(s)=∇a∈A(s)∑​π(a∣s)qπ​(s,a) 将连加符号 ∑ a ∈ A ( s ) \sum_{a \in \mathcal A(s)} ∑a∈A(s)​与梯度符号交换位置——即对连加操作中的每一项求解梯度,并对 π ( a ∣ s ) q π ( s , a ) \pi(a \mid s)q_\pi(s,a) π(a∣s)qπ​(s,a)求解梯度; 可以看成‘乘法求导’。 ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) + ∑ a ∈ A ( s ) π ( a ∣ s ) ∇ q π ( s , a ) \sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) + \sum_{a \in \mathcal A(s)}\pi(a \mid s)\nabla q_\pi(s,a) a∈A(s)∑​∇π(a∣s)qπ​(s,a)+a∈A(s)∑​π(a∣s)∇qπ​(s,a)

此时观察第二项 ∑ a ∈ A ( s ) π ( a ∣ s ) ∇ q π ( s , a ) \sum_{a \in \mathcal A(s)}\pi(a \mid s)\nabla q_\pi(s,a) ∑a∈A(s)​π(a∣s)∇qπ​(s,a)。 q π ( s , a ) q_\pi(s,a) qπ​(s,a)可以继续展开,即状态 s s s条件下选择并执行动作 a a a,经过状态转移得到下一时刻状态 s ′ s' s′。 ∇ q π ( s , a ) = ∇ ∑ s ′ , r P ( s ′ , r ∣ s , a ) [ r + γ V π ( s ′ ) ] = ∇ ∑ s ′ , r P ( s ′ , r ∣ s , a ) ⋅ r + ∇ ∑ s ′ , r γ P ( s ′ , r ∣ s , a ) V π ( s ′ ) \begin{aligned} \nabla q_\pi(s,a) & = \nabla \sum_{s',r}P(s',r \mid s,a)[r + \gamma V_\pi(s')] \\ & = \nabla \sum_{s',r}P(s',r \mid s,a) \cdot r + \nabla \sum_{s',r} \gamma P(s',r \mid s,a) V_\pi(s') \end{aligned} ∇qπ​(s,a)​=∇s′,r∑​P(s′,r∣s,a)[r+γVπ​(s′)]=∇s′,r∑​P(s′,r∣s,a)⋅r+∇s′,r∑​γP(s′,r∣s,a)Vπ​(s′)​ 我们要对 θ \theta θ求解梯度,只有策略函数 π ( a ∣ s ; θ ) \pi(a \mid s;\theta) π(a∣s;θ)和包含策略函数的 V π , q π V_\pi,q_\pi Vπ​,qπ​中含有 θ \theta θ。因此:动态特性函数 P ( s ′ , r ∣ s , a ) P(s',r \mid s,a) P(s′,r∣s,a),衰减系数 γ \gamma γ均视作常数。 对 ∇ q π ( s , a ) \nabla q_\pi(s,a) ∇qπ​(s,a)整理结果如下: ∇ q π ( s , a ) = γ ∑ s ′ , r P ( s ′ , r ∣ s , a ) ∇ V π ( s ′ ) \nabla q_\pi(s,a) = \gamma \sum_{s',r}P(s',r \mid s,a) \nabla V_\pi(s') ∇qπ​(s,a)=γs′,r∑​P(s′,r∣s,a)∇Vπ​(s′) 该结果可以继续简化——对 r r r求解边缘概率分布:此时有: ∑ r P ( r ∣ s , a ) = 1 \sum_{r} P(r \mid s,a) = 1 r∑​P(r∣s,a)=1 因此 ∇ q π ( s , a ) \nabla q_\pi(s,a) ∇qπ​(s,a)可以继续化简如下: ∇ q π ( s , a ) = γ ∑ r P ( r ∣ s , a ) × ∑ s ′ P ( s ′ ∣ s , a ) ∇ V π ( s ′ ) = γ × 1 × ∑ s ′ P ( s ′ ∣ s , a ) ∇ V π ( s ′ ) = γ ∑ s ′ P ( s ′ ∣ s , a ) ∇ V π ( s ′ ) \begin{aligned} \nabla q_\pi(s,a) & = \gamma \sum_{r}P(r \mid s,a) \times \sum_{s'} P(s' \mid s,a) \nabla V_\pi(s') \\ & = \gamma \times 1 \times \sum_{s'} P(s' \mid s,a) \nabla V_\pi(s') \\ & = \gamma \sum_{s'} P(s' \mid s,a) \nabla V_\pi(s') \end{aligned} ∇qπ​(s,a)​=γr∑​P(r∣s,a)×s′∑​P(s′∣s,a)∇Vπ​(s′)=γ×1×s′∑​P(s′∣s,a)∇Vπ​(s′)=γs′∑​P(s′∣s,a)∇Vπ​(s′)​ ∇ q π ( s , a ) \nabla q_\pi(s,a) ∇qπ​(s,a)至此无法继续向下化简,对 ∇ V π ( s ) \nabla V_\pi(s) ∇Vπ​(s)进行整理: ∇ V π ( s ) = ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) + ∑ a ∈ A ( s ) π ( a ∣ s ) ∇ q π ( s , a ) = ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) + ∑ a ∈ A ( s ) π ( a ∣ s ) × γ ∑ s ′ P ( s ′ ∣ s , a ) ∇ V π ( s ′ ) \begin{aligned} \nabla V_\pi(s) & = \sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) + \sum_{a \in \mathcal A(s)}\pi(a \mid s)\nabla q_\pi(s,a) \\ & = \sum_{a \in \mathcal A(s)}\nabla \pi(a \mid s)q_\pi(s,a) + \sum_{a \in \mathcal A(s)} \pi(a \mid s) \times \gamma \sum_{s'} P(s' \mid s,a) \nabla V_\pi(s') \end{aligned} ∇Vπ​(s)​=a∈A(s)∑​∇π(a∣s)qπ​(s,a)+a∈A(s)∑​π(a∣s)∇qπ​(s,a)=a∈A(s)∑​∇π(a∣s)qπ​(s,a)+a∈A(s)∑​π(a∣s)×γs′∑​P(s′∣s,a)∇Vπ​(s′)​

我们发现,上述式子是 关于 ∇ V π ( s ) \nabla V_\pi(s) ∇Vπ​(s)和 ∇ V π ( s ′ ) \nabla V_\pi(s') ∇Vπ​(s′)的迭代式子,即 找到了 ∇ V π ( s ) \nabla V_\pi(s) ∇Vπ​(s)与 ∇ V π ( s ′ ) \nabla V_\pi(s') ∇Vπ​(s′)的关联关系,为了确定这组关联关系,我们继续对 ∇ V π ( s ′ ) \nabla V_\pi(s') ∇Vπ​(s′)向下展开: 设置场景:状态 s ′ s' s′条件下,通过策略函数 π ( a ′ ∣ s ′ ; θ ) \pi(a' \mid s';\theta) π(a′∣s′;θ)选择动作 a ′ a' a′,经过 状态转移 得到 s ′ s' s′的下一时刻状态 s ′ ′ s'' s′′。 s'状态价值函数求解梯度同s ∇ V π ( s ′ ) = ∑ a ′ ∈ A ( s ′ ) ∇ π ( a ′ ∣ s ′ ) q π ( s ′ , a ′ ) + ∑ a ′ ∈ A ( s ′ ) π ( a ′ ∣ s ′ ) × γ ∑ s ′ ′ P ( s ′ ′ ∣ s ′ , a ′ ) ∇ V π ( s ′ ′ ) \nabla V_\pi(s') = \sum_{a' \in \mathcal A(s')} \nabla \pi(a' \mid s')q_\pi(s',a') + \sum_{a' \in \mathcal A(s')}\pi(a' \mid s') \times \gamma \sum_{s''}P(s'' \mid s',a') \nabla V_\pi(s'') ∇Vπ​(s′)=a′∈A(s′)∑​∇π(a′∣s′)qπ​(s′,a′)+a′∈A(s′)∑​π(a′∣s′)×γs′′∑​P(s′′∣s′,a′)∇Vπ​(s′′) 将 ∇ V π ( s ′ ) \nabla V_\pi(s') ∇Vπ​(s′)带回 ∇ V π ( s ) \nabla V_\pi(s) ∇Vπ​(s),则有: ∇ V π ( s ) = ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) + ∑ a ∈ A ( s ) π ( a ∣ s ) × γ ∑ s ′ P ( s ′ ∣ s , a ) { ∑ a ′ ∈ A ( s ′ ) ∇ π ( a ′ ∣ s ′ ) q π ( s ′ , a ′ ) + ∑ a ′ ∈ A ( s ′ ) π ( a ′ ∣ s ′ ) × γ ∑ s ′ ′ P ( s ′ ′ ∣ s ′ , a ′ ) ∇ V π ( s ′ ′ ) } \nabla V_\pi(s) = \sum_{a \in \mathcal A(s)}\nabla \pi(a \mid s)q_\pi(s,a) + \sum_{a \in \mathcal A(s)} \pi(a \mid s) \times \gamma \sum_{s'} P(s' \mid s,a) \left\{ \sum_{a' \in \mathcal A(s')} \nabla \pi(a' \mid s')q_\pi(s',a') + \sum_{a' \in \mathcal A(s')} \pi(a' \mid s') \times \gamma \sum_{s''}P(s'' \mid s',a') \nabla V_\pi(s'') \right\} ∇Vπ​(s)=a∈A(s)∑​∇π(a∣s)qπ​(s,a)+a∈A(s)∑​π(a∣s)×γs′∑​P(s′∣s,a)⎩ ⎨ ⎧​a′∈A(s′)∑​∇π(a′∣s′)qπ​(s′,a′)+a′∈A(s′)∑​π(a′∣s′)×γs′′∑​P(s′′∣s′,a′)∇Vπ​(s′′)⎭ ⎬ ⎫​

现在已经将状态 s s s状态转移了两次: s → s ′ → s ′ ′ s \to s' \to s'' s→s′→s′′,根据上面的展开结果,尝试寻找求解 ∇ V π ( s ) \nabla V_\pi(s) ∇Vπ​(s)的规律: 将上述公式完全展开,并归纳成若干项的加和 形式: 大家可以自行尝试展开,最终得到下面结果的加和形式即可

  • 第一项: ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) \sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) a∈A(s)∑​∇π(a∣s)qπ​(s,a)
  • 第二项: ∑ a ∈ A ( s ) π ( a ∣ s ) × γ ∑ s ′ P ( s ′ ∣ s , a ) ∑ a ′ ∈ A ( s ′ ) ∇ π ( a ′ ∣ s ′ ) q π ( s ′ , a ′ ) \sum_{a \in \mathcal A(s)} \pi(a \mid s) \times \gamma \sum_{s'} P(s' \mid s,a)\sum_{a' \in \mathcal A(s')} \nabla \pi(a' \mid s')q_\pi(s',a') a∈A(s)∑​π(a∣s)×γs′∑​P(s′∣s,a)a′∈A(s′)∑​∇π(a′∣s′)qπ​(s′,a′)
  • 第三项: ∑ a ∈ A ( s ) π ( a ∣ s ) × γ ∑ s ′ P ( s ′ ∣ s , a ) ∑ a ′ ∈ A ( s ′ ) π ( a ′ ∣ s ′ ) × γ ∑ s ′ ′ P ( s ′ ′ ∣ s ′ , a ′ ) ∇ V π ( s ′ ′ ) \sum_{a \in \mathcal A(s)}\pi(a \mid s) \times \gamma \sum_{s'} P(s' \mid s,a) \sum_{a' \in \mathcal A(s')} \pi(a' \mid s') \times \gamma \sum_{s''}P(s'' \mid s',a') \nabla V_\pi(s'') a∈A(s)∑​π(a∣s)×γs′∑​P(s′∣s,a)a′∈A(s′)∑​π(a′∣s′)×γs′′∑​P(s′′∣s′,a′)∇Vπ​(s′′)

首先,先观察第二项: ∑ a ∈ A ( s ) π ( a ∣ s ) × γ ∑ s ′ P ( s ′ ∣ s , a ) ∑ a ′ ∈ A ( s ′ ) ∇ π ( a ′ ∣ s ′ ) q π ( s ′ , a ′ ) \sum_{a \in \mathcal A(s)} \pi(a \mid s) \times \gamma \sum_{s'} P(s' \mid s,a)\sum_{a' \in \mathcal A(s')} \nabla \pi(a' \mid s')q_\pi(s',a') a∈A(s)∑​π(a∣s)×γs′∑​P(s′∣s,a)a′∈A(s′)∑​∇π(a′∣s′)qπ​(s′,a′) 观察前半部分: ∑ a ∈ A ( s ) π ( a ∣ s ) × γ ∑ s ′ P ( s ′ ∣ s , a ) \sum_{a \in \mathcal A(s)} \pi(a \mid s) \times \gamma \sum_{s'} P(s' \mid s,a) ∑a∈A(s)​π(a∣s)×γ∑s′​P(s′∣s,a),前半部分主要描述的是 状态 s s s转移至 s ′ s' s′的转移概率。现在可能观察的不够明朗,我们将前半部分进行如下变换:

  • 将 ∑ s ′ \sum_{s'} ∑s′​提到前面: ∑ a ∈ A ( s ) ∑ s ′ γ × π ( a ∣ s ) P ( s ′ ∣ s , a ) \sum_{a \in \mathcal A(s)}\sum_{s'} \gamma \times \pi(a \mid s) P(s' \mid s,a) a∈A(s)∑​s′∑​γ×π(a∣s)P(s′∣s,a)

  • 其中, π ( a ∣ s ) \pi(a \mid s) π(a∣s)可看作 s s s状态下动作 a a a发生的条件概率; P ( s ′ ∣ s , a ) P(s' \mid s,a) P(s′∣s,a)可看作 s s s状态下执行动作 a a a进行状态转移,转移状态为 s ′ s' s′的条件概率。

    根据动态规划求解强化学习任务——策略评估[解析解]提到的条件概率密度积分: ∑ a ∈ A p ( c ∣ a , B ) p ( a ∣ B ) = ∑ a ∈ A p ( c , a ∣ B ) = p ( c ∣ B ) \sum_{a \in \mathcal A}p(c \mid a,\mathcal B)p(a \mid \mathcal B) = \sum_{a \in \mathcal A}p(c,a \mid \mathcal B) = p(c \mid \mathcal B) a∈A∑​p(c∣a,B)p(a∣B)=a∈A∑​p(c,a∣B)=p(c∣B) 将条件概率 π ( a ∣ s ) \pi(a \mid s) π(a∣s)和条件概率 P ( s ′ ∣ s , a ) P(s' \mid s,a) P(s′∣s,a) 乘积结果的概率符号设为 P \mathcal P P, 可以将上述式子化简成: ∑ a ∈ A ( s ) ∑ s ′ γ × π ( a ∣ s ) P ( s ′ ∣ s , a ) = ∑ s ′ γ × P ( s ′ ∣ s ) \begin{aligned} \sum_{a \in \mathcal A(s)}\sum_{s'} \gamma \times \pi(a \mid s) P(s' \mid s,a) = \sum_{s'}\gamma \times\mathcal P(s' \mid s) \end{aligned} a∈A(s)∑​s′∑​γ×π(a∣s)P(s′∣s,a)=s′∑​γ×P(s′∣s)​

  • 根据上式,可以将 P ( s ′ ∣ s ) \mathcal P(s' \mid s) P(s′∣s)看作成 状态 s s s通过1次状态转移得到新状态 s ′ s' s′的概率。这和我们对状态分布中 P r { s 0 → s , k , π } P_r\{s_0 \to s,k,\pi\} Pr​{s0​→s,k,π}的定义十分相似,我们可以改成: P ( s ′ ∣ s ) = P r { s → s ′ , 1 , π } \mathcal P(s' \mid s) = P_r\{s \to s',1,\pi\} P(s′∣s)=Pr​{s→s′,1,π}

因此,前半部分可以转化成: ∑ a ∈ A ( s ) π ( a ∣ s ) × γ ∑ s ′ P ( s ′ ∣ s , a ) = ∑ s ′ γ × P r { s → s ′ , 1 , π } \sum_{a \in \mathcal A(s)} \pi(a \mid s) \times \gamma \sum_{s'} P(s' \mid s,a) = \sum_{s'} \gamma \times P_r\{s \to s',1,\pi\} a∈A(s)∑​π(a∣s)×γs′∑​P(s′∣s,a)=s′∑​γ×Pr​{s→s′,1,π}

至此,改进后第二项表达如下: ∑ s ′ γ × P r { s → s ′ , 1 , π } ∑ a ′ ∈ A ( s ′ ) ∇ π ( a ′ ∣ s ′ ) q π ( s ′ , a ′ ) \sum_{s'} \gamma \times P_r\{s \to s',1,\pi\}\sum_{a' \in \mathcal A(s')} \nabla \pi(a' \mid s')q_\pi(s',a') s′∑​γ×Pr​{s→s′,1,π}a′∈A(s′)∑​∇π(a′∣s′)qπ​(s′,a′)

继续观察这个改进后的第二项,虽然现在不清楚它表示的具体意义是什么——但是该式子中包含2个变量和1个常数量:

  • 变量 → s , s ′ \to s,s' →s,s′;( a ′ a' a′只能看成一个中间过程量,因为它最终是要被 ∑ a ′ ∈ A ( s ′ ) \sum_{a' \in \mathcal A(s')} ∑a′∈A(s′)​积分掉的量)
  • 常数量 → \to → 转移次数:1

我们可以将其理解为:状态 s s s经过 1次状态转移 得到状态 s ′ s' s′的量的描述。 可以将其做成一个 通向式,其表述含义为:状态 s s s经过 k k k次状态转移得到状态 x x x的量的描述。并且 x ∈ x \in x∈转移后的状态集合 S \mathcal S S。对应式子表示如下: ∑ x ∈ S γ × P r { s → x , k , π } ∑ a ∈ A ( x ) ∇ π ( a ∣ x ) q π ( x , a ) \sum_{x \in \mathcal S} \gamma \times P_r\{s \to x,k,\pi\} \sum_{a \in \mathcal A(x)} \nabla \pi(a \mid x)q_\pi(x,a) x∈S∑​γ×Pr​{s→x,k,π}a∈A(x)∑​∇π(a∣x)qπ​(x,a)

重点:此时第二项的通式已经得到了,观察第一项是否满足该通式? 必然是满足的。 观察第一项式子: ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) \sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) a∈A(s)∑​∇π(a∣s)qπ​(s,a) 我们可以将其理解成:状态 s s s经过 0次状态转移 得到状态 s s s自身的量的描述。 表述如下:

  • 状态 s s s状态转移0次 → \to → 即没有进行状态转移,其结果是状态 s s s自身的概率 必然是1;
  • 由于没有状态转移,转移后的状态集合 S \mathcal S S的选择只有 s s s一个。即: ∑ x ∈ S P r { s → x , k , π } = P r { s → s , 0 , π } ∣ x = s = 1 \sum_{x \in \mathcal S}P_r\{s \to x,k,\pi\} = P_r\{s \to s,0,\pi\}\mid_{x=s} = 1 x∈S∑​Pr​{s→x,k,π}=Pr​{s→s,0,π}∣x=s​=1
  • 由于没有状态转移,自然没有奖励结果衰减,因此,衰减系数 γ = 1 \gamma = 1 γ=1;

因此,第一项经过整理表示如下: ∑ x ∈ S γ × P r { s → x , k , π } ∑ a ∈ A ( x ) ∇ π ( a ∣ x ) q π ( x , a ) = 1 × P r { s → s , 0 , π } ∣ x = s ∑ a ∈ A ( x ) ∇ π ( a ∣ x ) q π ( x , a ) = 1 × 1 × ∑ a ∈ A ( x ) ∇ π ( a ∣ x ) q π ( x , a ) = ∑ a ∈ A ( x ) ∇ π ( a ∣ x ) q π ( x , a ) \begin{split} & \sum_{x \in \mathcal S} \gamma \times P_r\{s \to x,k,\pi\} \sum_{a \in \mathcal A(x)} \nabla \pi(a \mid x)q_\pi(x,a) \\ & = 1 \times P_r\{s \to s,0,\pi\} \mid_{x =s}\sum_{a \in \mathcal A(x)} \nabla \pi(a \mid x)q_\pi(x,a) \\ & = 1 \times 1 \times \sum_{a \in \mathcal A(x)} \nabla \pi(a \mid x)q_\pi(x,a) \\ & = \sum_{a \in \mathcal A(x)} \nabla \pi(a \mid x)q_\pi(x,a) \end{split} ​x∈S∑​γ×Pr​{s→x,k,π}a∈A(x)∑​∇π(a∣x)qπ​(x,a)=1×Pr​{s→s,0,π}∣x=s​a∈A(x)∑​∇π(a∣x)qπ​(x,a)=1×1×a∈A(x)∑​∇π(a∣x)qπ​(x,a)=a∈A(x)∑​∇π(a∣x)qπ​(x,a)​

至此,第一项和第二项全部满足上述通式。第三项通过观察,发现它仍然是一个迭代式,因为第三项中包含 ∇ V π ( s ′ ′ ) \nabla V_\pi(s'') ∇Vπ​(s′′),该项仍然可以继续展开,并一直展开下去。 示例:如果展开 N N N次,前 N − 1 N-1 N−1项均能表述为上述通式结果。

至此, ∇ V π ( s ) \nabla V_\pi(s) ∇Vπ​(s)表示如下: 注意:这里的‘无穷’符号并非表示迭代公式能够无限展开,即到情节结束时,后续展开项的结果均为0; ∇ V π ( s ) = ∑ x ∈ S ∑ k = 0 ∞ γ k × P r { s → x , k , π } ∑ a ∈ A ( x ) ∇ π ( a ∣ x ) q π ( x , a ) \nabla V_\pi(s) = \sum_{x \in \mathcal S} \sum_{k=0}^\infty \gamma^k \times P_r\{s \to x,k,\pi\} \sum_{a \in \mathcal A(x)} \nabla \pi(a \mid x)q_\pi(x,a) ∇Vπ​(s)=x∈S∑​k=0∑∞​γk×Pr​{s→x,k,π}a∈A(x)∑​∇π(a∣x)qπ​(x,a)

现在,将公式中所有的 s s s替换回初始状态 s 0 s_0 s0​,将公式中所有的 x x x替换回 s → s \to s→ 最终还是要求解初始状态价值函数的梯度——定义就是这么定义的。

∇ V π ( s 0 ) = ∑ s ∈ S ∑ k = 0 ∞ γ k × P r { s 0 → s , k , π } ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) \nabla V_\pi(s_0) = \sum_{s \in \mathcal S} \sum_{k=0}^\infty \gamma^k \times P_r\{s_0 \to s,k,\pi\} \sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) ∇Vπ​(s0​)=s∈S∑​k=0∑∞​γk×Pr​{s0​→s,k,π}a∈A(s)∑​∇π(a∣s)qπ​(s,a)

将状态分布 η ( s ) = ∑ k = 0 T − 1 P r { s 0 → s , k , π } \eta(s) = \sum_{k=0}^{T-1}P_r\{s_0 \to s,k,\pi\} η(s)=∑k=0T−1​Pr​{s0​→s,k,π}带回上式: ∇ V π ( s 0 ) = ∑ s ∈ S ∑ k = 0 ∞ γ k × P r { s 0 → s , k , π } ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) = ∑ s ∈ S γ k × η ( s ) ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) \begin{aligned} \nabla V_\pi(s_0) & = \sum_{s \in \mathcal S} \sum_{k=0}^\infty \gamma^k \times P_r\{s_0 \to s,k,\pi\} \sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) \\ & = \sum_{s \in \mathcal S} \gamma^k \times \eta(s) \sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) \end{aligned} ∇Vπ​(s0​)​=s∈S∑​k=0∑∞​γk×Pr​{s0​→s,k,π}a∈A(s)∑​∇π(a∣s)qπ​(s,a)=s∈S∑​γk×η(s)a∈A(s)∑​∇π(a∣s)qπ​(s,a)​ 将 s s s的出现概率 μ ( s ) \mu(s) μ(s)引入到公式中: → \to → 乘以一个 ∑ s ′ η ( s ′ ) × 1 ∑ s ′ η ( s ′ ) \sum_{s'} \eta(s') \times \frac{1}{\sum_{s'} \eta(s')} ∑s′​η(s′)×∑s′​η(s′)1​: ∇ J ( θ ) = ∇ V π ( s 0 ) = ∑ s ′ η ( s ′ ) ∑ s ∈ S γ k × η ( s ) ∑ s ′ η ( s ′ ) ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) = ∑ s ′ η ( s ′ ) ∑ s ∈ S γ k × μ ( s ) ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) \begin{aligned} \nabla \mathcal J(\theta) & = \nabla V_\pi(s_0) \\ & = \sum_{s'} \eta(s') \sum_{s \in \mathcal S} \gamma^k \times \frac{\eta(s)}{\sum_{s'} \eta(s')} \sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a)\\ & = \sum_{s'} \eta(s') \sum_{s \in \mathcal S} \gamma^k \times \mu(s)\sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) \end{aligned} ∇J(θ)​=∇Vπ​(s0​)=s′∑​η(s′)s∈S∑​γk×∑s′​η(s′)η(s)​a∈A(s)∑​∇π(a∣s)qπ​(s,a)=s′∑​η(s′)s∈S∑​γk×μ(s)a∈A(s)∑​∇π(a∣s)qπ​(s,a)​

∑ s ′ η ( s ′ ) \sum_{s'} \eta(s') ∑s′​η(s′)是归一化因子,是常数,它只是影响梯度的具体数值,根据本节开头介绍,我们更加关注梯度方向,因此: γ \gamma γ在这里被 ∝ \propto ∝(正比于符号)包含在内; ∇ J ( θ ) ∝ ∑ s ∈ S μ ( s ) ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) \nabla \mathcal J(\theta) \propto \sum_{s \in \mathcal S} \mu(s)\sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) ∇J(θ)∝s∈S∑​μ(s)a∈A(s)∑​∇π(a∣s)qπ​(s,a)

至此,完成了求解目标函数梯度 ∇ J ( θ ) \nabla \mathcal J(\theta) ∇J(θ)的全部推倒过程。下一节将介绍蒙特卡洛策略梯度方法(REINFORCE)。

相关参考: 【强化学习】策略梯度方法-策略梯度定理 深度强化学习原理、算法pytorch实战 —— 刘全,黄志刚编著

关注
打赏
1664446683
查看更多评论
立即登录/注册

微信扫码登录

0.1120s