强化学习第九章:策略梯度方法

2024-08-26 22:36

本文主要是介绍强化学习第九章:策略梯度方法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

强化学习第九章:策略梯度方法

  • 思路
  • 优化函数
  • 优化函数的梯度
  • 求解 Monte Carlo policy gradient (REINFORCE)
  • 总结
  • 参考资料

思路

与上一章的思路类似, 状态-动作 对下标索引获取概率π(s, a)的方式转换为状态-动作对 或者状态输入到神经网络中,两种方式,之前DQN实际使用的第二种方式(输出作为状态动作价值):
在这里插入图片描述
同样,这种方式提高了数据的泛化性,存储效率高。

优化函数

接下来考虑基于策略的算法如何设定评价指标即优化函数呢,有两个:

  • 平均状态价值 average state value
    在这里插入图片描述
    其实就是求当前策略下 全局状态价值的期望 ,这个值越大,证明策略越好,d代表了 状态的分布
    对于d来说,
    • 如果与当前策略无关,那么就是一些 确切 的值,具体是多少呢?
      假如 平等 对待每个状态,那么就是都1/|S|
      假如只关心 一些状态 ,目的是优化策略 增加关心的 状态的价值,那么就赋 予这些状态更大的概率。
      在很多强化学习任务中,只关心从某个状态s0出发的最优策略,那么其实最大化的就是s0出发的 discounted return ,这个时候:
      在这里插入图片描述
    • 如果与当前策略有关,那么d就为dπ,dπ是个啥呢,其实就是马尔科夫链形成的平稳分布,有个性质就是,访问次数多的状态的dπ(s)大,反之小。
  • 平均一步奖励(immediately reward) average one-step reward
    在这里插入图片描述
    很好理解,再来看一下,针对一个状态的瞬时奖励的计算:
    在这里插入图片描述
    另一种表达式:
    在这里插入图片描述
    这种表达式的情况,当前策略下,瞬时奖励的期望 = 将一条轨迹的所有 瞬时奖励 求和再求算术平均,而这个 瞬时奖励 是个随机变量,所以有个期望符号。

回过头来,针对这个问题,设计了两个优化函数,那么做过优化的同学肯定知道现在该进行优化函数的相关性分析了,看他俩是否是一回事或者成正比(正相关)
直观上来看是正相关的,那么具体的证明呢,得利用到平稳分布的性质:
在这里插入图片描述
实际上就是一回事。

优化函数的梯度

对于上面的优化函数来说,求梯度之后都可以写成(具体赵老师书P206):
在这里插入图片描述
写成期望的形式:
在这里插入图片描述
OK,有梯度,开始求解

求解 Monte Carlo policy gradient (REINFORCE)

  • Monte Carlo policy gradient (REINFORCE)
    梯度上升迭代式:
    在这里插入图片描述
    这里和上面的梯度的区别在于:去掉了期望的符号,随机梯度下降;qπ变成了qt,熟悉的感觉来了,MC和TD,如果用MC,那么就是REINFORCE,如果是TD,那么请听下回分解。
    在这里插入图片描述

总结

注意最终的优化函数以及梯度的求解。

参考资料

【强化学习的数学原理】课程:从零开始到透彻理解(完结)

这篇关于强化学习第九章:策略梯度方法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1109870

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

在JS中的设计模式的单例模式、策略模式、代理模式、原型模式浅讲

1. 单例模式(Singleton Pattern) 确保一个类只有一个实例,并提供一个全局访问点。 示例代码: class Singleton {constructor() {if (Singleton.instance) {return Singleton.instance;}Singleton.instance = this;this.data = [];}addData(value)

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

浅谈主机加固,六种有效的主机加固方法

在数字化时代,数据的价值不言而喻,但随之而来的安全威胁也日益严峻。从勒索病毒到内部泄露,企业的数据安全面临着前所未有的挑战。为了应对这些挑战,一种全新的主机加固解决方案应运而生。 MCK主机加固解决方案,采用先进的安全容器中间件技术,构建起一套内核级的纵深立体防护体系。这一体系突破了传统安全防护的局限,即使在管理员权限被恶意利用的情况下,也能确保服务器的安全稳定运行。 普适主机加固措施:

webm怎么转换成mp4?这几种方法超多人在用!

webm怎么转换成mp4?WebM作为一种新兴的视频编码格式,近年来逐渐进入大众视野,其背后承载着诸多优势,但同时也伴随着不容忽视的局限性,首要挑战在于其兼容性边界,尽管WebM已广泛适应于众多网站与软件平台,但在特定应用环境或老旧设备上,其兼容难题依旧凸显,为用户体验带来不便,再者,WebM格式的非普适性也体现在编辑流程上,由于它并非行业内的通用标准,编辑过程中可能会遭遇格式不兼容的障碍,导致操

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss