Reinforcement Learning强化学习系列之五:值近似方法Value Approximation

本文主要是介绍Reinforcement Learning强化学习系列之五:值近似方法Value Approximation,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

引言

前面说到了强化学习中的蒙特卡洛方法(MC)以及时序差分(TD)的方法,这些方法针对的基本是离散的数据,而一些连续的状态则很难表示,对于这种情况,通常在强化学习里有2中方法,一种是针对value function的方法,也就是本文中提到的值近似(value approximation);另一种则是后面要讲到的policy gradient。

值近似的方法

这里写图片描述
值近似的方法根本上是使用一个值函数来近似表示该状态的返回值,对于状态 S S ,在一个序列中间,我们使用一个参数函数v^(S,w)来近似表示观测到的真实值 vπ(S) v π ( S ) ,学习使用普通的梯度下降的方式进行,对于一个观察序列的每一个step均可以作为一个训练的过程。当然这个值函数可以加上动作 a a 表示成为Q函数的近似 vˆ(S,a,w) v ^ ( S , a , w )

示例

这里写图片描述
问题描述:一个汽车从谷底向上开,但是汽车的马力不足以支撑其到终点,因此最好的策略是需要先开到谷底的左边然后再加速,利用一部分惯性到达终点。

  1. 这里面的状态可以描述为: (xt),(xt^) ( 横 向 位 置 x t ) , ( 速 度 x t ^ )
  2. 动作空间为3个, 1,0,1 − 1 , 0 , 1 ,分别表示全力向左,不动和全力向右
  3. 状态序列更新的方式为:
    xt+1=bound[xt+xt+1^] x t + 1 = b o u n d [ x t + x t + 1 ^ ]

    xt+1^=bound[xt^+0.001A0.0025cos(3xt)] x t + 1 ^ = b o u n d [ x t ^ + 0.001 A − 0.0025 c o s ( 3 x t ) ]

这里bound表示其约束范围,横轴坐标 xt x t 的范围是 1.5xt0.5 − 1.5 ≤ x t ≤ 0.5 ,速度的范围是 0.07xt^0.07 − 0.07 ≤ x t ^ ≤ 0.07 ,当 xt x t 行到最坐标的时候,将会被置零。

在本示例中,将使用Q-learning的值近似方法,采用的线性函数来表示Q函数。

实验环境

实验将基于openAI所提供的gym包的mountaincar-v0这一个环境,openAI提供了很多的游戏环境,都可以进行相关的强化学习实验。
openAI目前支持mac OS 和Linux环境,可以直接使用pip install gym的方式安装其最新的版本的gym,但是对于python2.7来说,安装最新的版本0.9.6,可能会出现cannot import name spaces的问题,选择安装0.9.5则没有这个问题

关键代码

class Estimator(object):def __init__(self):self.models=[]for _ in range(env.action_space.n):model = SGDRegressor(learning_rate="constant")model.partial_fit([self.feature_state(env.reset())],[0])self.models.append(model)def predict(self,s,a=None):s=self.feature_state(s)if a:return self.models[a].predict([s])[0]else:return [self.models[m].predict([s])[0] for m in range(env.action_space.n)]def update(self,s,a,target):s=self.feature_state(s)self.models[a].partial_fit([s],[target])def feature_state(self,s):return featurizer.transform(scaler.transform([s]))[0]def make_epsilon_greedy_policy(estimator,nA,epsilon):def epsilon_greedy_policy(observation):best_action = np.argmax(estimator.predict(observation))A =np.ones(nA,dtype=np.float32)*epsilon/nAA[best_action] += 1-epsilonreturn Areturn epsilon_greedy_policydef Q_learning_with_value_approximation(env,estimator,epoch_num,discount_factor=1.0, epsilon=0.1, epsilon_decay=1.0):# stats = plotting.EpisodeStats(#     episode_lengths=np.zeros(epoch_num),#     episode_rewards=np.zeros(epoch_num))for i_epoch_num in range(epoch_num):policy = make_epsilon_greedy_policy\(estimator,env.action_space.n,epsilon*epsilon_decay**i_epoch_num)state = env.reset()for it in itertools.count():action_probs = policy(state)action = np.random.choice(np.arange(len(action_probs)), p=action_probs)next_state,reward,done,_=env.step(action)q_values_next = estimator.predict(next_state)td_target = reward + discount_factor * np.max(q_values_next)estimator.update(state, action, td_target)# stats.episode_rewards[i_epoch_num] += reward# stats.episode_lengths[i_epoch_num] = itprint("\rStep {} @ Episode {}/{}".format(it, i_epoch_num + 1, epoch_num))if done:print itbreakstate = next_state

其中,将两个状态参数使用RBF核函数进行转换为一维长度为400的特征向量,使用的普通的SGDRegressor。

结果

运行100代后的函数cost值为
这里写图片描述

代码链接

代码可以在我的GitHub链接里找到

这篇关于Reinforcement Learning强化学习系列之五:值近似方法Value Approximation的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/972816

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

Spring Security 从入门到进阶系列教程

Spring Security 入门系列 《保护 Web 应用的安全》 《Spring-Security-入门(一):登录与退出》 《Spring-Security-入门(二):基于数据库验证》 《Spring-Security-入门(三):密码加密》 《Spring-Security-入门(四):自定义-Filter》 《Spring-Security-入门(五):在 Sprin

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

csu1328(近似回文串)

题意:求近似回文串的最大长度,串长度为1000。 解题思路:以某点为中心,向左右两边扩展,注意奇偶分开讨论,暴力解即可。时间复杂度O(n^2); 代码如下: #include<iostream>#include<algorithm>#include<stdio.h>#include<math.h>#include<cstring>#include<string>#inclu

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

浅谈主机加固,六种有效的主机加固方法

在数字化时代,数据的价值不言而喻,但随之而来的安全威胁也日益严峻。从勒索病毒到内部泄露,企业的数据安全面临着前所未有的挑战。为了应对这些挑战,一种全新的主机加固解决方案应运而生。 MCK主机加固解决方案,采用先进的安全容器中间件技术,构建起一套内核级的纵深立体防护体系。这一体系突破了传统安全防护的局限,即使在管理员权限被恶意利用的情况下,也能确保服务器的安全稳定运行。 普适主机加固措施:

webm怎么转换成mp4?这几种方法超多人在用!

webm怎么转换成mp4?WebM作为一种新兴的视频编码格式,近年来逐渐进入大众视野,其背后承载着诸多优势,但同时也伴随着不容忽视的局限性,首要挑战在于其兼容性边界,尽管WebM已广泛适应于众多网站与软件平台,但在特定应用环境或老旧设备上,其兼容难题依旧凸显,为用户体验带来不便,再者,WebM格式的非普适性也体现在编辑流程上,由于它并非行业内的通用标准,编辑过程中可能会遭遇格式不兼容的障碍,导致操