随机规划:求解报童问题期望值模型的算法方案

2024-04-01 09:36

本文主要是介绍随机规划:求解报童问题期望值模型的算法方案,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 1 引言
  • 2 数学模型
  • 3 报童问题
    • 3.1 直接最优化
    • 3.2 样本均值近似
    • 3.3 两阶段规划
    • 3.4 结果分析
  • 4 在线求教
  • 5 相关阅读

1 引言

上一篇关于不确定优化的文章(不确定优化入门:用简单实例讲明白随机规划、鲁棒优化和分布鲁棒优化 )发表后,被部分大佬认为是一篇科普文,有点诚惶诚恐,毕竟我从今年才开始认真学习不确定优化,水平还很有限。

秉承着先了解大概框架再深入学习各类算法细节的心态,我在那篇文章中,用简化版的报童问题,把求解不确定优化的各类算法方案做了直观上的实践和比较,完成了算法框架的初步梳理。

现在,已经到学习算法方案详细设计的阶段了。

我的学习路径一如既往的是从简单到复杂,所以,本文要研究的问题是随机规划中最简单的一类:决策变量只有1个,不确定参数也只有1个且分布函数已知;解决问题的基本思路是最优化其目标函数的期望值,有些书中也称之为期望值模型。

正文见下。

2 数学模型

先看一下确定性优化模型
min f ( x ) s.t g j ( x ) ≤ 0 , j = 1 , 2 , . . . , N \text{min} \quad f(\pmb x) \\ \text{s.t} \quad g_j(\pmb x)≤0, j=1,2,...,N \\ minf(x)s.tgj(x)0,j=1,2,...,N
其中 x \pmb x x是决策变量, f f f是目标函数表达式, g g g是约束条件表达式。

增加随机变量 ξ \pmb \xi ξ后,上述模型就变为不确定优化模型
min E [ f ( x , ξ ) ] s.t E [ g j ( x , ξ ) ] ≤ 0 , j = 1 , 2 , . . . , N \ \text{min} \quad E[f(\pmb x,\pmb \xi)] \nonumber \\ \text{s.t} \quad E[g_j(\pmb x,\pmb \xi)]≤0, j=1,2,...,N \nonumber \\  minE[f(x,ξ)]s.tE[gj(x,ξ)]0,j=1,2,...,N
式中, E E E表示期望,假设 ξ \pmb \xi ξ的概率密度函数为 ϕ ( ξ ) \phi(\pmb \xi) ϕ(ξ),目标函数和约束条件的表达式可以表示为
E [ f ( x , ξ ) ] = ∫ f ( x , ξ ) ϕ ( ξ ) d ξ E [ g j ( x , ξ ) ] = ∫ g j ( x , ξ ) ϕ ( ξ ) d ξ E[f(\pmb x,\pmb \xi)]=\int f(\pmb x,\pmb \xi)\phi(\pmb \xi)d\pmb \xi \\ E[g_j(\pmb x,\pmb \xi)]=\int g_j(\pmb x,\pmb \xi)\phi(\pmb \xi)d\pmb \xi E[f(x,ξ)]=f(x,ξ)ϕ(ξ)dξE[gj(x,ξ)]=gj(x,ξ)ϕ(ξ)dξ
如果 ξ \pmb \xi ξ是离散随机变量,且其分布函数为 P ( ξ = ξ i ) = θ i , i ∈ I P(\pmb \xi=\pmb \xi_i)=\theta_i,i\in I P(ξ=ξi)=θi,iI,目标函数和约束条件的表达式可以表示为
E [ f ( x , ξ ) ] = ∑ i ∈ I θ i f ( x , ξ i ) E [ g j ( x , ξ ) ] = ∑ i ∈ I θ i g j ( x , ξ i ) E[f(\pmb x,\pmb \xi)]=\sum_{i\in I} \theta_i f(\pmb x,\pmb \xi_i) \\ E[g_j(\pmb x,\pmb \xi)]=\sum_{i\in I} \theta_i g_j(\pmb x,\pmb \xi_i) E[f(x,ξ)]=iIθif(x,ξi)E[gj(x,ξ)]=iIθigj(x,ξi)

3 报童问题

有了模型后,我们还需要知道用什么算法可以求解。

本节主要使用报童问题作为实例,来阐述在决策变量只有1个、不确定参数也只有1个的情况下,可以得到最优解的各类算法方案。

报童问题可以描述为:报童每天需要采购一定数量的报纸用于当天的销售。已知每份报纸的成本价 c = 5 c=5 c=5,销售价 p = 8 p=8 p=8,需求量 d d d是个不确定参数,通过历史的数据可知其分布服从正态分布,均值是 μ = 100 \mu=100 μ=100,方差为 σ = 20 \sigma=20 σ=20,如果当天卖不完,会按回收价 s = 4 s=4 s=4将未卖完的报纸卖给回收站。

现在需要确定报童的最佳订购量 x x x,使得报童的净收入 θ ( x ) \theta(x) θ(x)最大化。 θ ( x ) \theta(x) θ(x)的表达式为
θ ( x ) = p ⋅ E [ min ⁡ ( x , d ) ] + s ⋅ E [ max ⁡ ( x − d , 0 ) ] − c x \theta(x)=p·E[\min(x,d)]+s·E[\max(x-d,0)]-cx θ(x)=pE[min(x,d)]+sE[max(xd,0)]cx
第一项是售卖报纸的收益,第二项是回收报纸的收益,第三项是购买报纸的成本。

3.1 直接最优化

常规求解思路是:对 θ ( x ) \theta(x) θ(x)求导使其梯度等于0,即可得到最佳 x x x

但由于公式中涉及到 x x x d d d的大小判断, θ ( x ) \theta(x) θ(x)的导数并不好算,为此,可以先把上面的 x x x转换成一个新的变量 x − d x-d xd,接着转变 θ ( x ) \theta(x) θ(x)的表达式。

  1. 对于 min ⁡ ( x , d ) \min(x,d) min(x,d)项,将其做如下转化
    min ⁡ ( x , d ) = d − max ⁡ ( d − x , 0 ) \min(x,d)=d-\max(d-x,0) min(x,d)=dmax(dx,0)
    上式的正确性可以分 x > d x>d x>d x ≤ d x≤d xd来依次验证: x > d x>d x>d时,左边为 d d d,右边为 d − 0 = d d-0=d d0=d x ≤ d x≤d xd时,左边为 x x x,右边为 d − ( d − x ) = x d-(d-x)=x d(dx)=x

  2. 对于 s ⋅ E [ max ⁡ ( x − d , 0 ) ] s·E[\max(x-d,0)] sE[max(xd,0)]项,不需要调整。

  3. 对于 c x cx cx项,将其做如下转化
    c x = c ( x − d ) + c d = c max ⁡ ( d − x , 0 ) − c max ⁡ ( x − d , 0 ) + c d cx=c(x-d)+cd=c\max(d-x,0)-c\max(x-d,0)+cd cx=c(xd)+cd=cmax(dx,0)cmax(xd,0)+cd
    上式的正确性也可以分 x > d x>d x>d x ≤ d x≤d xd来验证,这里就不赘述了。

  4. 将上述三式重新组合,目标函数 θ ( x ) \theta(x) θ(x)的表达式变为
    θ = ( p − c ) ⋅ E ( d ) − { ( p − c ) ⋅ E [ max ⁡ ( d − x , 0 ) ] + ( c − s ) ⋅ E [ max ⁡ ( x − d , 0 ) ] } \theta=(p-c)·E(d)-\{(p-c)·E[\max(d-x,0)]+(c-s)·E[\max(x-d,0)]\} θ=(pc)E(d){(pc)E[max(dx,0)]+(cs)E[max(xd,0)]}
    定义 b = p − c , h = c − s , α = b ⋅ E [ max ⁡ ( d − x , 0 ) ] + h ⋅ E [ max ⁡ ( x − d , 0 ) ] b=p-c,h=c-s,\alpha=b·E[\max(d-x,0)]+h·E[\max(x-d,0)] b=pc,h=cs,α=bE[max(dx,0)]+hE[max(xd,0)],则最大化 θ \theta θ等价于最小化 α \alpha α

事实上, α \alpha α中的两个表达式也可以分别理解为:因购买量过少导致的脱销损失和因购买量过多导致的滞销损失。此外,从上式中还可以看出,由于 α ≥ 0 \alpha≥0 α0,所以考虑不确定后,期望收益肯定不高于不考虑不确定时的收益值。

为了求得最小化的 α \alpha α,将其表达式求导并令其等于0
b ⋅ E ∂ max ⁡ ( d − x , 0 ) ∂ x + h ⋅ E ∂ max ⁡ ( x − d , 0 ) ∂ x = 0 b·E\frac{\partial \max(d-x,0)}{\partial x}+h·E\frac{\partial \max(x-d,0)}{\partial x}=0 bExmax(dx,0)+hExmax(xd,0)=0
需要注意的是,一维求导一般用 d x dx dx就可以,但是本文已经使用 d d d表示需求量,为了区分,此处使用了 ∂ x \partial x x的形式。

先看第一项。 x ≥ d x ≥ d xd时, max ⁡ ( d − x , 0 ) = 0 \max(d-x,0)=0 max(dx,0)=0,对 x x x求导后是0;当 x < d x < d x<d时, max ⁡ ( d − x , 0 ) = d − x \max(d-x,0)=d-x max(dx,0)=dx,对 x x x求导后是-1。设 x x x的分布概率为 P ( x ) P(x) P(x),第一项可以表示为
b ⋅ E ∂ max ⁡ ( d − x , 0 ) ∂ x = b ∫ x min ⁡ d P ( x ) ⋅ ( − 1 ) d x = − b P r ( x < d ) = − b [ 1 − P r ( d ≤ x ) ] b·E\frac{\partial \max(d-x,0)}{\partial x}=b\int _{x_{\min}}^d P(x)·(-1)dx=-bPr(x < d)=-b[1-Pr(d≤x)] bExmax(dx,0)=bxmindP(x)(1)dx=bPr(x<d)=b[1Pr(dx)]
式中, P r ( d ≤ x ) Pr(d ≤ x) Pr(dx)为累积分布函数。

同理,可以求得第二项为的结果为
h ⋅ E ∂ max ⁡ ( x − d , 0 ) ∂ x = h P r ( d ≤ x ) h·E\frac{\partial \max(x-d,0)}{\partial x}=hPr(d≤x) hExmax(xd,0)=hPr(dx)
将上述两式带回梯度值等于0的等式约束中,可以得到
P r ( d ≤ x ) = b b + h = p − c p − s Pr(d≤x)=\frac{b}{b+h}=\frac{p-c}{p-s} Pr(dx)=b+hb=pspc

这里还有个小的点需要注意,我们要计算的是 P r ( d ≤ x ) Pr(d≤x) Pr(dx),而不是 P r ( x ≤ d ) Pr(x≤d) Pr(xd)。虽然 x x x是决策变量,但是随机变量是 d d d,后续还需要根据 d d d的累积分布函数值反求 x x x

根据之前的定义, b = 1 , h = 3 b=1,h=3 b=1,h=3,此时最优解满足
P r ( d ≤ x ) = b b + h = 0.75 Pr(d≤x)=\frac{b}{b+h}=0.75 Pr(dx)=b+hb=0.75

调用如下代码,可以反算出 x = 113.49 x=113.49 x=113.49

IN [40]: import scipy
IN [41]: scipy.stats.norm.ppf(0.75, loc=100, scale=20)
Out[41]: 113.48979500392163

3.2 样本均值近似

用最优化的方法推导最优解的解析表达式,虽然优雅,但是对数学的要求比较高,而且如果问题复杂度提升了,能否推导出来都是一个问题。

既然如此,数值的方法就也值得一试。其中,最常见的方法,就是样本均值近似。在该方法中,通过抽样的方式把随机变量转变为一组离散参数,这样就可以把不确定优化问题转化为确定优化问题。

以下为使用样本均值近似实现不确定优化的具体代码。首先使用正态分布随机产生100000个 d d d值,然后设置决策变量范围为80~120,依次计算不同决策变量值下的总收益,并将最优解保留下来。

import numpy as npif __name__ == '__main__':# 报童模型参数c = 5s = 4p = 8# 需求分布参数mu = 100sigma = 20d = np.random.normal(mu, sigma, 100000)# 最优解best_f = 0best_x = 0# 遍历所有决策变量x:范围80~120for cur_x in range(80, 120):cur_f = 0# 需求参数for cur_d_index in range(len(d)):cur_d = d[cur_d_index]# 计算当前决策变量和当前需求值时的值cur_f += p * min(cur_x, cur_d) + s * max(cur_x - cur_d, 0) - c * cur_x# 更新最优解if cur_f > best_f:best_f = cur_fbest_x = cur_xprint('best_x: {}, best_f: {}.'.format(best_x, best_f / len(d)))

运行上述代码后,可以得到最佳订购量是113,该值和解析推导的结果是吻合的。

best_x: 113, best_f: 274.4170922340697.

3.3 两阶段规划

相比直接求解原模型,两阶段规划是更常见的求解随机规划问题的方法。该方法在建模时,会把原问题划分为两个阶段,通常第一阶段不包含随机变量,第二阶段包含随机变量。

在报童问题中,第一阶段是:在观测到实际需求 d d d之前,就需要确定订货量 x x x,目标函数表达式为
− c x + E [ Q ( x , d ) ] -cx+E[Q(x,d)] cx+E[Q(x,d)]
此处, E [ Q ( x , d ) ] E[Q(x,d)] E[Q(x,d)]是第二阶段的收益,目前未知,暂时用一个表达式代替。

到了第二阶段,需求量变为已知,此时 x x x也已经确定, E [ Q ( x , d ) ] E[Q(x,d)] E[Q(x,d)]的表达式就明确了
E [ Q ( x , d ) ] = p ⋅ E [ min ⁡ ( x , d ) ] + s ⋅ E [ max ⁡ ( x − d , 0 ) ] E[Q(x,d)]=p·E[\min(x,d)]+s·E[\max(x-d,0)] E[Q(x,d)]=pE[min(x,d)]+sE[max(xd,0)]

把上式带入上上式后,我们发现,和直接建模的目标函数表达式是一模一样的,看起来好像没啥区别。这主要是因为本文所用实例的问题维度比较低,如果问题复杂度变高,两阶段规划模型和原模型就会不一样。后续文章肯定还会再讨论该方案,此处暂时就不再深入了。

3.4 结果分析

前面三节给出了求解期望值模型的三种算法方案,本节针对优化结果再做一些简单分析。

如果不考虑随机性,最优订购量是100,收益是300;考虑随机性后,最优订购量是113,预期收益是274。

预期收益降低,在“解析推导”章节中已经说明了原因,此处不再赘述;本节着重理解为什么考虑随机性后最优订购量增会高于100。

事实上,当 x < d x < d x<d时,脱销损失的系数值 h = 3 h=3 h=3,而 x > d x > d x>d时,滞销损失的系数值 b = 1 b=1 b=1。由于目标函数是最小化脱销损失+滞销损失,所以最优解会高于需求量均值 d = 100 d=100 d=100,可以理解为:宁愿滞销、不能脱销,即宁愿多赔,不能少赚。

如果调整模型参数为 p = 6 , s = 3 p=6,s=3 p=6,s=3,此时滞销损失系数值高于脱销损失系数值,最优订购量小于100,变成91,即宁愿少赚,不能多赔。

4 在线求教

关于文章主题的内容,到这里已经结束了。本节主要是针对我在学习不确定优化过程中,遇到的一些困扰,进行在线求教,有愿意帮忙的大佬可以直接后台联系我。

(1) 需要帮忙勘误。国内关于不确定优化的经典教材或视频教程偏少,我自己也是边学边总结,很担心文章中的一些认知和理解有问题,会误导大家,所以迫切需要这个方向的大佬在我发文前帮忙做一下免费勘误。

(2) 需要RSOME指导。之前有个RSOME的讲座,主要讲的是如何利用RSOME求解鲁棒优化和分布鲁棒优化问题,当时主讲人的意思是RSOME也能用于求解随机规划问题。我目前还没用过RSOME,但很想实践一下并将其优化结果和代码添加至文章中,所以需要有擅长RSOME的大佬帮忙指导一下内容或方向。

在此感谢!

5 相关阅读

报童问题:https://www.jianshu.com/p/dfac740faa34

报童模型两阶段表示:https://blog.csdn.net/robert_chen1988/article/details/79350624

报童问题详细推导及利用Python的SAA方法求解:https://blog.csdn.net/zzzssszzzzsz/article/details/119875340

报童模型——如何做一次性采购的供给决策?:https://www.jianshu.com/p/6c7858159898

这篇关于随机规划:求解报童问题期望值模型的算法方案的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/866816

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

不懂推荐算法也能设计推荐系统

本文以商业化应用推荐为例,告诉我们不懂推荐算法的产品,也能从产品侧出发, 设计出一款不错的推荐系统。 相信很多新手产品,看到算法二字,多是懵圈的。 什么排序算法、最短路径等都是相对传统的算法(注:传统是指科班出身的产品都会接触过)。但对于推荐算法,多数产品对着网上搜到的资源,都会无从下手。特别当某些推荐算法 和 “AI”扯上关系后,更是加大了理解的难度。 但,不了解推荐算法,就无法做推荐系

无人叉车3d激光slam多房间建图定位异常处理方案-墙体画线地图切分方案

墙体画线地图切分方案 针对问题:墙体两侧特征混淆误匹配,导致建图和定位偏差,表现为过门跳变、外月台走歪等 ·解决思路:预期的根治方案IGICP需要较长时间完成上线,先使用切分地图的工程化方案,即墙体两侧切分为不同地图,在某一侧只使用该侧地图进行定位 方案思路 切分原理:切分地图基于关键帧位置,而非点云。 理论基础:光照是直线的,一帧点云必定只能照射到墙的一侧,无法同时照到两侧实践考虑:关

好题——hdu2522(小数问题:求1/n的第一个循环节)

好喜欢这题,第一次做小数问题,一开始真心没思路,然后参考了网上的一些资料。 知识点***********************************无限不循环小数即无理数,不能写作两整数之比*****************************(一开始没想到,小学没学好) 此题1/n肯定是一个有限循环小数,了解这些后就能做此题了。 按照除法的机制,用一个函数表示出来就可以了,代码如下

hdu1043(八数码问题,广搜 + hash(实现状态压缩) )

利用康拓展开将一个排列映射成一个自然数,然后就变成了普通的广搜题。 #include<iostream>#include<algorithm>#include<string>#include<stack>#include<queue>#include<map>#include<stdio.h>#include<stdlib.h>#include<ctype.h>#inclu

康拓展开(hash算法中会用到)

康拓展开是一个全排列到一个自然数的双射(也就是某个全排列与某个自然数一一对应) 公式: X=a[n]*(n-1)!+a[n-1]*(n-2)!+...+a[i]*(i-1)!+...+a[1]*0! 其中,a[i]为整数,并且0<=a[i]<i,1<=i<=n。(a[i]在不同应用中的含义不同); 典型应用: 计算当前排列在所有由小到大全排列中的顺序,也就是说求当前排列是第

高效+灵活,万博智云全球发布AWS无代理跨云容灾方案!

摘要 近日,万博智云推出了基于AWS的无代理跨云容灾解决方案,并与拉丁美洲,中东,亚洲的合作伙伴面向全球开展了联合发布。这一方案以AWS应用环境为基础,将HyperBDR平台的高效、灵活和成本效益优势与无代理功能相结合,为全球企业带来实现了更便捷、经济的数据保护。 一、全球联合发布 9月2日,万博智云CEO Michael Wong在线上平台发布AWS无代理跨云容灾解决方案的阐述视频,介绍了

csu 1446 Problem J Modified LCS (扩展欧几里得算法的简单应用)

这是一道扩展欧几里得算法的简单应用题,这题是在湖南多校训练赛中队友ac的一道题,在比赛之后请教了队友,然后自己把它a掉 这也是自己独自做扩展欧几里得算法的题目 题意:把题意转变下就变成了:求d1*x - d2*y = f2 - f1的解,很明显用exgcd来解 下面介绍一下exgcd的一些知识点:求ax + by = c的解 一、首先求ax + by = gcd(a,b)的解 这个

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

综合安防管理平台LntonAIServer视频监控汇聚抖动检测算法优势

LntonAIServer视频质量诊断功能中的抖动检测是一个专门针对视频稳定性进行分析的功能。抖动通常是指视频帧之间的不必要运动,这种运动可能是由于摄像机的移动、传输中的错误或编解码问题导致的。抖动检测对于确保视频内容的平滑性和观看体验至关重要。 优势 1. 提高图像质量 - 清晰度提升:减少抖动,提高图像的清晰度和细节表现力,使得监控画面更加真实可信。 - 细节增强:在低光条件下,抖