李宏毅深度强化学习导论——演员-评论员

2024-03-27 07:44

本文主要是介绍李宏毅深度强化学习导论——演员-评论员,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

引言

本文主要介绍演员-评论员(Actor-Critic)算法。

Critic

在这里插入图片描述

给定Actor θ \theta θ,Critic评估当观测到 s s s(或进一步地采取行动 a a a)的好坏。

价值函数(Value function),记为 V θ ( s ) V^\theta(s) Vθ(s),就是一种Critic。

在这里插入图片描述
它的输入是现在的游戏画面,这里的上标 θ \theta θ表示它观察的对象是 θ \theta θ这个actor,输出是一个标量。这个标量表示当看到游戏画面 s s s,actor θ \theta θ接下来期望可以得到了折扣累积奖励: G 1 ′ = r 1 + γ r 2 + γ 2 r 3 + ⋯ G^\prime_1 = r_1 + \gamma r_2 + \gamma^2 r_3 + \cdots G1=r1+γr2+γ2r3+

比如上图两个游戏画面中,左边有很多外星人,右边则相对少很多,因此左边估计的(价值)标量就会比右边大,当然前提是这个Actor足够厉害,不然没一会就挂了价值估计也会很低。

价值函数依赖于我们观察的Actor,同样的游戏画面不同的Actor应该要得到不同的价值。

那么如何估计价值函数?
我们可以训练一个Critic来估计价值函数,有两种常用的训练方法。

MC

第一种是基于Monte-Carlo(蒙特卡洛,MC)的方法。
它的原理是,让Actor θ \theta θ去和环境进行很多轮互动,然后就有很多的数据。在这里插入图片描述
经过多轮游戏,我们知道看到状态 s a s_a sa,在这轮游戏结束折扣累积奖励会使 G a ′ G_a^\prime Ga;看到状态 s b s_b sb,在这轮游戏结束折扣累积奖励会使 G b ′ G_b^\prime Gb

其实核心是计算期望,比如有很多轮游戏都看到了 s a s_a sa,然后计算它们的均值当成看到 s a s_a sa会后会得到的折扣累积奖励就好了。

那么我们让Critic看到 s a s_a sa s b s_b sb的输出分别与 G a ′ G_a^\prime Ga G b ′ G_b^\prime Gb越接近越好。

TD

另一种是时序差分(Temporal-difference,TD)方法。MC需要需要玩完整场游戏才能得到关于累积奖励的数据,而TD方法则不同。

只要有 s t , a t , r t , s t + 1 s_t,a_t,r_t,s_{t+1} st,at,rt,st+1的数据就好了,分别是当前状态、当前采取的行动、所获得的奖励、采取行动后跳到的下一个状态。

我们先来看 V θ ( s t ) V^\theta(s_t) Vθ(st) V θ ( s t + 1 ) V^\theta(s_{t+1}) Vθ(st+1)之间的关系:
V θ ( s t ) = r t + γ r t + 1 + γ 2 r t + 2 ⋯ V θ ( s t ) = r t + 1 + γ r t + 2 + γ 2 r t + 3 ⋯ (1) \begin{aligned} V^\theta(s_t) &= r_t + \gamma r_{t+1} + \gamma^2 r_{t+2} \cdots \\ V^\theta(s_t) &= r_{t+1} + \gamma r_{t+2} + \gamma^2 r_{t+3} \cdots \\ \end{aligned} \tag 1 Vθ(st)Vθ(st)=rt+γrt+1+γ2rt+2=rt+1+γrt+2+γ2rt+3(1)

联立两个等式我们可以看出:
V θ ( s t ) = r t + γ V θ ( s t + 1 ) (2) V^\theta(s_t) = r_t + \gamma V^\theta(s_{t+1}) \tag 2 Vθ(st)=rt+γVθ(st+1)(2)

假设我们现在有这样的数据: s t , a t , r t , s t + 1 s_t,a_t,r_t,s_{t+1} st,at,rt,st+1

在这里插入图片描述
那么分别把 s t , s t + 1 s_t,s_{t+1} st,st+1代入价值函数中,分别得到 V θ ( s t ) V^\theta(s_t) Vθ(st) V θ ( s t + 1 ) V^\theta(s_{t+1}) Vθ(st+1),根据等式(2)前者减去 γ \gamma γ乘后者的值应该和 r t r_t rt尽量接近。

MC v.s. TD

假设Critic观察到下面8个episode的数据:
在这里插入图片描述
用MC和TD来观察,算出来的价值函数有可能不一样。

那么 V θ ( s b ) V^\theta(s_b) Vθ(sb)表示看到 s b s_b sb后actor θ \theta θ期望获得的折扣累积回报: 6 8 = 3 4 \frac{6}{8}=\frac{3}{4} 86=43,因为8次游戏里面有6次得到1分。

V θ ( s a ) V^\theta(s_a) Vθ(sa)怎么计算,根据MC方法有: 0 1 = 0 \frac{0}{1}=0 10=0
根据TD方法(等式(2))有: V θ ( s a ) = r + V θ ( s b ) ⇒ 3 4 = 0 + V θ ( s b ) V^\theta(s_a) =r + V^\theta(s_b) \Rightarrow \frac{3}{4} = 0 + V^\theta(s_b) Vθ(sa)=r+Vθ(sb)43=0+Vθ(sb), 所以 V θ ( s b ) = 3 4 V^\theta(s_b)=\frac{3}{4} Vθ(sb)=43

可以看到这两种方法算出来的结果不一样,但从它们的角度来说,都是对的。

下面我们看Critic如何被用在训练Actor上。我们上篇文章说可以通过下图的方式来训练Actor:
在这里插入图片描述

但我们留下来一个问题,即这个偏置 b b b的取值是多少?
这里有一个合理的取值,就是 V θ ( s ) V^\theta(s) Vθ(s)
即我们根据同样的训练数据可以训练一个Critic,它可以衡量一个状态的期望累积奖励。所以:

在这里插入图片描述
我们来理解下 V θ ( s t ) V^\theta(s_t) Vθ(st)代表什么意思。现在有 A t = G t ′ − V θ ( s t ) A_t = G_t^\prime - V^\theta(s_t) At=GtVθ(st)

在这里插入图片描述
我们知道,根据概念是看到 s t s_t st后会得到的累积奖励期望值。但是要注意的是,看到 s t s_t st后,你的Actor不一定会执行 a t a_t at,因为在训练时Actor也要有随机性。
这样我们可以得到不同的累积奖励 G G G,平均起来就得到了 V θ ( s t ) V^\theta(s_t) Vθ(st)

那么这里定义 G t ′ G_t^\prime Gt为在 s t s_t st下执行 a t a_t at最后得到的累积奖励。
如果 A t > 0 A_t > 0 At>0代表 G t ′ > V θ ( s t ) G_t^\prime > V^\theta(s_t) Gt>Vθ(st),表明动作 a t a_t at比(随机执行动作的)平均要好;否则如果 A t < 0 A_t < 0 At<0代表比平均要差。

但是仔细思考可能会发现哪里有点不对,这里 G t ′ G_t^\prime Gt是一个样本的结果,而 V θ ( s t ) V^\theta(s_t) Vθ(st)是一个均值。

如果是拿均值减均值就得到了我们要了解的最后一个版本:
在这里插入图片描述
上一个版本我们是用 G t ′ − V θ ( s t ) G_t^\prime - V^\theta(s_t) GtVθ(st)来估计 A t A_t At
现在变成了用均值,具体地,在 s t s_t st后执行动作 a t a_t at得到奖励 r t r_t rt,跳到状态 s t + 1 s_{t+1} st+1,然后在 s t + 1 s_{t+1} st+1处拿多个episode的均值计算出 V θ ( s t + 1 ) V^\theta(s_{t+1}) Vθ(st+1),或者说我们可以直接将 s t + 1 s_{t+1} st+1输入给我们的Critic就可以得到这个 V θ ( s t + 1 ) V^\theta(s_{t+1}) Vθ(st+1)。最后再加上 r t r_t rt就可以得到在 s t s_t st采取 a t a_t at后跳到 s t + 1 s_{t+1} st+1后会得到的期望累积奖励。

然后我们把 G t ′ G_t^\prime Gt换成 r t + V θ ( s t + 1 ) r_t + V^\theta(s_{t+1}) rt+Vθ(st+1)得到
A t = r t + V θ ( s t + 1 ) − V θ ( s t ) A_t = r_t + V^\theta(s_{t+1}) - V^\theta(s_{t}) At=rt+Vθ(st+1)Vθ(st)

这就是Advantage Actor-Critic(A2C)方法。

从算法描述我们可以看出Actor和Critic可以通过两个神经网络来模拟。在这里插入图片描述
Actor看到游戏画面,输出要采取的动作分布;Critic看到游戏画面,输出这个Actor会得到的折扣累积奖励期望,是一个标量。

它们的输入是一样的,所以前几层的参数是可以共享的,比如输入是游戏画面时,那么前几层就是CNN网络。所以实际操作时我们可以设计成上图这样。绿色的网络代表CNN,用于游戏画面特征提取。

这篇关于李宏毅深度强化学习导论——演员-评论员的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/851392

相关文章

深度解析Python中递归下降解析器的原理与实现

《深度解析Python中递归下降解析器的原理与实现》在编译器设计、配置文件处理和数据转换领域,递归下降解析器是最常用且最直观的解析技术,本文将详细介绍递归下降解析器的原理与实现,感兴趣的小伙伴可以跟随... 目录引言:解析器的核心价值一、递归下降解析器基础1.1 核心概念解析1.2 基本架构二、简单算术表达

深度解析Java @Serial 注解及常见错误案例

《深度解析Java@Serial注解及常见错误案例》Java14引入@Serial注解,用于编译时校验序列化成员,替代传统方式解决运行时错误,适用于Serializable类的方法/字段,需注意签... 目录Java @Serial 注解深度解析1. 注解本质2. 核心作用(1) 主要用途(2) 适用位置3

Java MCP 的鉴权深度解析

《JavaMCP的鉴权深度解析》文章介绍JavaMCP鉴权的实现方式,指出客户端可通过queryString、header或env传递鉴权信息,服务器端支持工具单独鉴权、过滤器集中鉴权及启动时鉴权... 目录一、MCP Client 侧(负责传递,比较简单)(1)常见的 mcpServers json 配置

Maven中生命周期深度解析与实战指南

《Maven中生命周期深度解析与实战指南》这篇文章主要为大家详细介绍了Maven生命周期实战指南,包含核心概念、阶段详解、SpringBoot特化场景及企业级实践建议,希望对大家有一定的帮助... 目录一、Maven 生命周期哲学二、default生命周期核心阶段详解(高频使用)三、clean生命周期核心阶

深度剖析SpringBoot日志性能提升的原因与解决

《深度剖析SpringBoot日志性能提升的原因与解决》日志记录本该是辅助工具,却为何成了性能瓶颈,SpringBoot如何用代码彻底破解日志导致的高延迟问题,感兴趣的小伙伴可以跟随小编一起学习一下... 目录前言第一章:日志性能陷阱的底层原理1.1 日志级别的“双刃剑”效应1.2 同步日志的“吞吐量杀手”

Unity新手入门学习殿堂级知识详细讲解(图文)

《Unity新手入门学习殿堂级知识详细讲解(图文)》Unity是一款跨平台游戏引擎,支持2D/3D及VR/AR开发,核心功能模块包括图形、音频、物理等,通过可视化编辑器与脚本扩展实现开发,项目结构含A... 目录入门概述什么是 UnityUnity引擎基础认知编辑器核心操作Unity 编辑器项目模式分类工程

深度解析Python yfinance的核心功能和高级用法

《深度解析Pythonyfinance的核心功能和高级用法》yfinance是一个功能强大且易于使用的Python库,用于从YahooFinance获取金融数据,本教程将深入探讨yfinance的核... 目录yfinance 深度解析教程 (python)1. 简介与安装1.1 什么是 yfinance?

Python学习笔记之getattr和hasattr用法示例详解

《Python学习笔记之getattr和hasattr用法示例详解》在Python中,hasattr()、getattr()和setattr()是一组内置函数,用于对对象的属性进行操作和查询,这篇文章... 目录1.getattr用法详解1.1 基本作用1.2 示例1.3 原理2.hasattr用法详解2.

深度解析Spring Security 中的 SecurityFilterChain核心功能

《深度解析SpringSecurity中的SecurityFilterChain核心功能》SecurityFilterChain通过组件化配置、类型安全路径匹配、多链协同三大特性,重构了Spri... 目录Spring Security 中的SecurityFilterChain深度解析一、Security

深度解析Nginx日志分析与499状态码问题解决

《深度解析Nginx日志分析与499状态码问题解决》在Web服务器运维和性能优化过程中,Nginx日志是排查问题的重要依据,本文将围绕Nginx日志分析、499状态码的成因、排查方法及解决方案展开讨论... 目录前言1. Nginx日志基础1.1 Nginx日志存放位置1.2 Nginx日志格式2. 499