莫烦 强化学习视频整理

2024-02-06 22:38

本文主要是介绍莫烦 强化学习视频整理,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

RL知识整理

RL分类

按是否理解环境分类:

  1. Model-free RL(不理解环境):
    用模型表示环境,从环境中得到反馈,再学习;
    只能一步一步等真实世界的反馈
    算法:Q Learning, Sarsa, Policy Gradients
  2. Model-Based RL(理解环境):
    可以模拟现实世界,有一个虚拟环境;
    预判断反馈
    算法:Q Learning, Sarsa, Policy Gradients

按思想分:

  1. Policy-Based RL(基于概率):
    输出行动概率,然后根据概率采取行动(即使某一动作概率最大,也不一定会选择)
    可以处理连续动作
    算法:Policy Gradients
  2. Value-Based RL(基于价值):
    输出所有动作的价值,根据最高价值选择(就是选价值最高的)
    无法处理连续动作
    算法:Q Learning, Sarsa
  3. Actor-Critic(二者结合)
    Actor基于概率做出动作,Critic给出动作的价值

按更新方式分:

  1. Monte-Carlo update(回合更新):
    游戏开始后等待游戏结束,再更新
    算法:基础版Policy Gradients, Monte-Carlo Learning

  2. Temporal-Difference update(单步更新):
    游戏进行的每一步都进行更新
    算法:Q-Learning, Sarsa, 升级版Policy Gradients

按是否离线分:

  1. On-Policy(在线学习):只能本人玩
    算法:Sarsa
  2. Off-Policy(离线学习):可以看着别人玩,从过往经验学习
    算法Q Learning, Deep Q Network

Q Learning

每一个决策过程都会有一个潜在奖励(建立Q表),Q值相当于采取动作时能够获得收益的期望,可用于评价在特定状态下采取某个动作的优劣。
首先根据state和Q table选择action(ε-greedy);执行action后,得到新的state和Q值以及奖励值;通过前一步的预测值和现在的真实值进行更新(见公式)
Q-learning的主要优势就是使用了时间差分法(融合了蒙特卡洛和动态规划)能够进行off-policy的学习,使用贝尔曼方程可以对马尔科夫过程求解最优策略
在这里插入图片描述
在这里插入图片描述

Sarsa

Q Learning在s_2估计选哪个动作会带来更大的奖励,Sarsa在s_2估计的动作就是要选择的动作
在这里插入图片描述
更新方式也变了,Sarsa选择离危险更远(on policy 胆子更小),Q Learning选择离成功更近
在这里插入图片描述
Q Learning:Off policy
在这里插入图片描述

Sarsa(𝝀)

𝝀:脚步衰减值(离奖励越远的步,越不重要)
Sarsa(0):单步更新法,只关注得到reward的前一步
Sarsa(1):回合更新,所有步更新力度一样
在这里插入图片描述
在这里插入图片描述

特点是需要额外维护一张E表,来衡量一个Episode内个体早期经过的状态对后续状态行为价值贡献的重要程度。
在这里插入图片描述

DQN

Deep Q Network:融合了神经网络+Q Learning
原因:状态太多了,全部用表格存储内存不够,且搜索耗时
过程:输入state和action,神经网络输出Q值;或者只输入state,输出所有动作值,直接选择最大值的动作
在这里插入图片描述
在这里插入图片描述

  • Experience replay
    记忆库,用于重复学习
    每次 DQN 更新的时候, 随机抽取一些之前的经历进行学习。随机抽取这种做法打乱了经历之间的相关性, 也使得神经网络更新更有效率

  • Fixed Q-targets
    暂时冻结q_target参数,切断相关性;使神经网络更容易收敛
    也是一种打乱相关性的机理, 如果使用 fixed Q-targets, 我们就会在 DQN 中使用到两个结构相同但参数不同的神经网络, 预测 Q 估计的神经网络具备最新的参数, 而预测 Q 现实的神经网络使用的参数则是很久以前的。

  • Q-Learning中用来计算target和预测值的Q是同一个Q,也就是说使用了相同的神经网络。这样带来的一个问题就是,每次更新神经网络的时候,target也都会更新,这样会容易导致参数不收敛。在有监督学习中,标签label都是固定的,不会随着参数的更新而改变。

  • 因此DQN在原来的Q网络的基础上又引入了一个target Q网络,即用来计算target的网络。它和Q网络结构一样,初始的权重也一样,只是Q网络每次迭代都会更新,而target Q网络是每隔一段时间才会更新

  • 改进:使用了卷积神经网络来逼近行为值函数;使用了target Q network来更新target;使用了经验回放Experience replay

Policy Gradient

特点:不通过分析奖励值,直接输出action,能够在连续区间内选择;
反向传递:大幅度提升高奖励action下一次被选择的概率,小幅度提升低奖励下一次被选中的概率
回合更新
在这里插入图片描述

Actor Critic

结合以值为基础和以概率为基础的算法。
Actor ->Policy Gradients 支持连续空间;
Critic-> Value-Based 能单步更新,提高学习效率
相当于actor选择下一步要做的行为,critic评判这个动作好不好

缺点:涉及到两个神经网络,且都是在连续状态中更新;导致神经网络学不到东西
=> Actor Critic + DQN = Deep Deterministic Policy Gradient

DDPG

优势:能在连续动作上有效学习
Deep + Deterministic Policy Gradient( Deterministic +Policy Gradient )
在这里插入图片描述
在这里插入图片描述
从DDPG网络整体上来说:他应用了 Actor-Critic 形式的, 所以也具备策略 Policy 的神经网络 和基于 价值 Value 的神经网络,因为引入了DQN的思想,每种神经网络我们都需要再细分为两个, Policy Gradient 这边,我们有估计网络和现实网络,估计网络用来输出实时的动作, 供 actor 在现实中实行,而现实网络则是用来更新价值网络系统的。再看另一侧价值网络, 我们也有现实网络和估计网络, 他们都在输出这个状态的价值, 而输入端却有不同, 状态现实网络这边会拿着从动作现实网络来的动作加上状态的观测值加以分析,而状态估计网络则是拿着当时 Actor 施加的动作当做输入。

在这里插入图片描述

这篇关于莫烦 强化学习视频整理的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/685773

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

流媒体平台/视频监控/安防视频汇聚EasyCVR播放暂停后视频画面黑屏是什么原因?

视频智能分析/视频监控/安防监控综合管理系统EasyCVR视频汇聚融合平台,是TSINGSEE青犀视频垂直深耕音视频流媒体技术、AI智能技术领域的杰出成果。该平台以其强大的视频处理、汇聚与融合能力,在构建全栈视频监控系统中展现出了独特的优势。视频监控管理系统EasyCVR平台内置了强大的视频解码、转码、压缩等技术,能够处理多种视频流格式,并以多种格式(RTMP、RTSP、HTTP-FLV、WebS

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

综合安防管理平台LntonAIServer视频监控汇聚抖动检测算法优势

LntonAIServer视频质量诊断功能中的抖动检测是一个专门针对视频稳定性进行分析的功能。抖动通常是指视频帧之间的不必要运动,这种运动可能是由于摄像机的移动、传输中的错误或编解码问题导致的。抖动检测对于确保视频内容的平滑性和观看体验至关重要。 优势 1. 提高图像质量 - 清晰度提升:减少抖动,提高图像的清晰度和细节表现力,使得监控画面更加真实可信。 - 细节增强:在低光条件下,抖

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

数论入门整理(updating)

一、gcd lcm 基础中的基础,一般用来处理计算第一步什么的,分数化简之类。 LL gcd(LL a, LL b) { return b ? gcd(b, a % b) : a; } <pre name="code" class="cpp">LL lcm(LL a, LL b){LL c = gcd(a, b);return a / c * b;} 例题:

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学