指数分布的理解,推导与应用

2024-05-25 02:36

本文主要是介绍指数分布的理解,推导与应用,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

指数分布的定义

在浙大版的教材中,指数分布的定义如下:
若连续型的随机变量 X X X的概率密度为:
f ( x ) = { 1 θ e − x θ , x>0 0 , 其他 f(x) = \begin{cases} \frac{1}{\theta} e^{-\frac{x}{\theta}}, & \text{x>0}\\ 0, & \text{其他} \end{cases} f(x)={θ1eθx,0,x>0其他
其中 θ > 0 \theta>0 θ>0为常数,则称 X X X服从参数为 θ \theta θ的指数分布,其中 θ \theta θ的含义是事件发生的时间间隔

需要特别注意的是在考研大纲中的形式如下:
f ( x ) = { λ e − λ x , x ≥ 0 0 , 其他 f(x) = \begin{cases} \lambda e^{-\lambda{x}}, & x \geq 0\\ 0, & \text{其他} \end{cases} f(x)={λeλx,0,x0其他
其中 λ \lambda λ每单位时间发生该事件的次数,这种形式更加常见,服从的是参数为 1 λ \frac{1}{\lambda} λ1的指数分布

指数分布分布的理解与公式推导

在之前的文章中我们说过泊松分布https://blog.csdn.net/qq_42692386/article/details/125916391,可以知道泊松分布其实是描述一段时间内事情发生了多少次(例子中就是营业时间内卖了多少个馒头)的概率分布,而现在我们想研究一下事件与事件之间间隔时间(卖两个馒头之间的间隔时间)的服从什么分布呢?
假如某一天没有卖出馒头,比如说周三吧,这意味着,周二最后卖出的馒头,和周四最早卖出的馒头中间至少间隔了一天:
在这里插入图片描述

当然也可能运气不好,周二也没有卖出馒头。那么卖出两个馒头的时间间隔就隔了两天,但无论如何时间间隔都是大于一天的:
在这里插入图片描述
而某一天没有卖出馒头的概率可以由泊松分布得出:

P ( X = 0 ) = λ 0 0 ! e − λ = e − λ P(X=0)=\frac{\lambda^0}{0!}e^{-\lambda}=e^{-\lambda} P(X=0)=0!λ0eλ=eλ

根据上面的分析,卖出两个馒头之间的时间间隔要大于一天,那么必然要包含没有卖出馒头的这天,所以两者的概率是相等的。如果假设随机变量为:

Y = 卖出两个馒头之间的时间间隔 Y=卖出两个馒头之间的时间间隔 Y=卖出两个馒头之间的时间间隔

那么就有:

P ( Y > 1 ) = P ( X = 0 ) = e − λ P(Y > 1)=P(X=0)=e^{-\lambda} P(Y>1)=P(X=0)=eλ

但是现在问题出现了:之前求出的泊松分布实在限制太大,只告诉了我们每天卖出的馒头数。而两个馒头卖出的事件间隔可能是大于一天,也有可能只间隔了几分钟,所以我们想知道任意的事件间隔里卖出的馒头数量的概率分布,比如半天卖出的馒头数的分布,一小时卖出的馒头数的分布。
稍微扩展下可以得到新的函数:

P ( X = k , t ) = ( λ t ) k k ! e − λ t P(X=k,t)=\frac{({\lambda}{t})^k}{k!}e^{-\lambda{t}} P(X=k,t)=k!(λt)keλt

扩展后得到的这个函数称为泊松过程,具体的推导过程比较复杂,可以自行搜索学习,这里不再赘述。
通过新的这个函数就可知不同的时间段 t t t内卖出的馒头数的分布了( t = 1 t=1 t=1时就是泊松分布):

在这里插入图片描述

根据之前的分析,两次卖出馒头之间的时间间隔大于 t t t的概率,等同于 t t t时间内没有卖出一个馒头的概率,而后者的概率可以由泊松过程给出。还是一样假设随机变量 Y = 卖出两个馒头之间的时间间隔 Y=卖出两个馒头之间的时间间隔 Y=卖出两个馒头之间的时间间隔
则随机变量 Y Y Y的概率:

P ( Y > t ) = P ( X = 0 , t ) = ( λ t ) 0 0 ! e − λ t = e − λ t , t ≥ 0 P(Y > t)=P(X=0,t)=\frac{({\lambda}{t})^0}{0!}e^{-\lambda{t}}=e^{-\lambda{t}},t \geq 0 P(Y>t)=P(X=0,t)=0!(λt)0eλt=eλt,t0

进而有:
P ( Y ≤ t ) = 1 − P ( Y > t ) = 1 − e − λ t P(Y \leq t)=1-P(Y > t)=1-e^{-\lambda{t}} P(Yt)=1P(Y>t)=1eλt

这其实已经得到了 的累积分布函数了:
F ( y ) = P ( Y ≤ y ) = { 1 − e − λ y , y ≥ 0 0 , y < 0 F(y)=P(Y \leq y)= \begin{cases} 1-e^{-\lambda{y}}, & y\geq 0 \\ 0, & y<0 \end{cases} F(y)=P(Yy)={1eλy,0,y0y<0

对其求导就可以得到概率密度函数:
f ( y ) = { λ e − λ y , y ≥ 0 0 , y < 0 f(y)= \begin{cases} \lambda e^{-\lambda{y}}, & y\geq 0 \\ 0, & y<0 \end{cases} f(y)={λeλy,0,y0y<0

这就是卖出馒头的时间间隔 的概率密度函数,也就是指数分布 。

对应参数的含义辨析

和教科书中的定义比较,可以看到对应的形式稍微不一样,但是实际上 λ = 1 θ \lambda=\frac{1}{\theta} λ=θ1,这里 θ \theta θ的含义是事件发生的事件间隔。根据之前的泊松分布定义和推导过程我们知道这里的 λ \lambda λ是对应随机事件在对应时间内的数学期望。在泊松分布中是对应的单位时间内卖出的馒头数量的总和,而在指数分布中,由于我们要研究的是随机事件是对应的随机事件发生间隔,所以对应随机事件的期望(也就是卖出两个馒头的时间间隔的期望)是单位时间发生次数(卖出的馒头数量)的倒数。所以可以将参数 λ \lambda λ改为 1 θ \frac{1}{\theta} θ1,即可得到教科书中参数为 1 θ \frac{1}{\theta} θ1的公式:

举个例子:如果您每天卖了3个馒头( λ = 3 \lambda=3 λ=3),则意味着每卖出2个馒头的间隔期望为 1 3 \frac{1}{3} 31 θ = 1 λ = 1 3 \theta=\frac{1}{\lambda}=\frac{1}{3} θ=λ1=31)。在有的参考书中, θ \theta θ被称为“衰减率”*

指数分布的图像

指数分布中的 λ \lambda λ是每日平均卖出的馒头数,如果 λ \lambda λ越大,也就是说每日卖出的馒头越多,那么两个馒头之间的时间间隔必然越短,这点从图像上也可以看出。

λ \lambda λ较小的时候,比如说 λ = 1 \lambda=1 λ=1吧,也就是说一天只卖出一个馒头,那么馒头卖出间隔时间大于1的可能性就很大(下图是指数分布的概率密度函数的图像,对应的概率是曲线下面积):
在这里插入图片描述

而如果 λ \lambda λ较大的时候,比如说 λ = 3 \lambda=3 λ=3,也就是说一天卖出三个馒头,那么馒头卖出间隔时间大于1的可能性已经变得很小了:
在这里插入图片描述

指数分布期望与方差

指数分布的期望值是:

E ( X ) = 1 λ {E} (X)={\frac {1}{\lambda }} E(X)=λ1
这个很好理解:如果你平均每天卖两个馒头,那么你预期每卖一个馒头的时间是半天。

指数分布的方差:

D ( X ) = 1 λ 2 {D} (X)={\frac {1}{\lambda^2 }} D(X)=λ21

严格的推导过程如下:
首先,指数分布属于连续型随机分布,因此,其期望E(X)为:
E ( X ) = ∫ − ∞ + ∞ ∣ x ∣ f ( x ) d x = ∫ 0 + ∞ x f ( x ) d x = ∫ 0 + ∞ x λ e − λ x d x = 1 λ ∫ 0 + ∞ λ x e − λ x d λ x E(X)=\int_{-\infty}^{+\infty} |x|f(x)dx=\int_{0}^{+\infty}xf(x)dx=\int_{0}^{+\infty}x \lambda e^{-\lambda{x}}dx= \frac{1}{\lambda}\int_{0}^{+\infty} {\lambda}x e^{-\lambda{x}}d{\lambda}x E(X)=+xf(x)dx=0+xf(x)dx=0+xλeλxdx=λ10+λxeλxdλx
u = λ x u=λx u=λx,并使用分步积分法积分,则:
E ( X ) = 1 λ ∫ 0 + ∞ u e − u d u = 1 λ [ ( − e − u − u e − u ) ∣ 0 + ∞ = 1 λ E(X)=\frac{1}{\lambda}\int_{0}^{+\infty}ue^{−u}du=\frac{1}{\lambda}[(−e^{−u}−ue^{−u})\big|_{0}^{+\infty}=\frac{1}{\lambda} E(X)=λ10+ueudu=λ1[(euueu) 0+=λ1

对于指数分布的方差D(X)有:
D ( X ) = E ( X 2 ) − ( E ( X ) ) 2 D(X)=E(X^2)-(E(X))^2 D(X)=E(X2)(E(X))2
其中
E ( X 2 ) = ∫ − ∞ ∞ ∣ x 2 ∣ f ( x ) d x = ∫ 0 ∞ x 2 f ( x ) d x = ∫ 0 ∞ x 2 ⋅ λ e − λ x d x E(X^2)=\int_{-\infty }^{\infty }|x^2|f(x)dx=\int_{0}^{\infty }x^2f(x)dx=\int_{0}^{\infty }x^2\cdot\lambda e^{-\lambda x}dx E(X2)=x2f(x)dx=0x2f(x)dx=0x2λeλxdx
E ( X 2 ) = 1 λ 2 ∫ 0 ∞ λ x λ x e − λ x d λ x E(X^2)=\frac {1} {\lambda^2}\int_{0}^{\infty }\lambda x \lambda xe^{-\lambda x}d\lambda x E(X2)=λ210λxλxeλxdλx

同样令 u = λ x u=λx u=λx,并使用分步积分法积分,则:
E ( X 2 ) = 1 λ 2 ∫ 0 ∞ u 2 e − u d u = 1 λ 2 [ ( − 2 e − u − 2 u e − u − u 2 e − u ) ∣ ( ∞ , 0 ) ] = 1 λ 2 ⋅ 2 = 2 λ 2 E(X^2)=\frac {1} {\lambda^2}\int_{0}^{\infty }u^2e^{-u}du=\frac {1} {\lambda^2}[(-2e^{-u}-2ue^{-u}-u^2e^{-u})|(\infty,0)]=\frac {1} {\lambda^2}\cdot 2=\frac {2} {\lambda^2} E(X2)=λ210u2eudu=λ21[(2eu2ueuu2eu)(,0)]=λ212=λ22
即可利用公式解得
D ( X ) = E ( X 2 ) − ( E ( X ) ) 2 = 2 λ 2 − ( 1 λ ) 2 = 1 λ 2 D(X)=E(X^2)-(E(X))^2=\frac {2} {\lambda^2}-(\frac {1} {\lambda})^2=\frac {1} {\lambda^2} D(X)=E(X2)(E(X))2=λ22(λ1)2=λ21

指数分布的无记忆性

无记忆性是指经过一定的试验次数或时间后,随机变量的条件概率仍服从相同的分布,形象化地说计算后续的分布时可以把过去的经历完全忽略忘记,故称为无记忆性
P ( X > s + t ∣ X > s ) = P ( X > t ) , s , t ≥ 0 P(X>s+t \mid X>s)=P(X>t), \quad \ \ s, t \geq 0 P(X>s+tX>s)=P(X>t),  s,t0
指数分布的无记忆性证明如下:
P ( X > s + t ∣ X > s ) = P { ( X > s + t ) ∩ ( X > s ) } P ( X > s ) = P ( X > s + t ) P ( X > s ) = 1 − F ( s + t ) 1 − F ( s ) = e − λ ( s + t ) e − λ ( s ) = e − λ t = P ( X > t ) P(X>s+t \mid X>s)=\frac{P\{(X>s+t) \cap ( X>s)\}}{ P( X>s)} \\ =\frac{P(X>s+t)}{ P( X>s)} =\frac{1-F(s+t)}{ 1-F(s)} \\ =\frac{e^{-\lambda(s+t)}}{e^{-\lambda(s)}}=e^{-\lambda{t}}=P(X>t) P(X>s+tX>s)=P(X>s)P{(X>s+t)(X>s)}=P(X>s)P(X>s+t)=1F(s)1F(s+t)=eλ(s)eλ(s+t)=eλt=P(X>t)

在浙大教材中有个例子:如果X是某一个电器的使用寿命,在使用过 s 小时后,它还能再使用 t 小时的概率,和它一开始算寿命就是 t 小时的概率是一样的。
很多人觉得日常生活中的电子元件用了十年之后不可能还能和新的有一样的预期寿命,实际上这个例子应该要加上一个条件的:如果将电器考虑作理想的电器,器件不会老化。
此时,电器的寿命是随机的。可以视为电器内部彷佛每秒钟都在扔硬币(扔硬币很好理解,不管前面扔了多少次,再扔一次硬币正反面的概率仍是二分之一),扔到了正面,电器就坏了。在这种情况下,我们认为电器的寿命服从指数分布。现实中是不会有理想电器的,但是如果只考虑短时间内的电器寿命,那么就可以将之视作理想电器,认为它的寿命服从指数分布。

指数分布应用实例

假设银行平均每 10 分钟接到一个新电话。客户致电后,确定下一个客户在之后 10 到 15 分钟内致电的可能性。
λ = 1 10 = 0.1 λ =\frac{1}{10}=0.1 λ=101=0.1

则新客户在 10-15 分钟内致电的概率:
P ( 10 < X ≤ 15 ) = P ( X ≤ 15 ) − P ( X ≤ 10 ) = ( 1 – e − 0.1 × 15 ) – ( 1 – e − 0.1 × 10 ) = 0.7769 – 0.6321 = 0.1448 P(10 < X ≤ 15) =P( X ≤ 15)-P(X ≤ 10)= (1 – e^{ -0.1\times15} )– (1 – e^{ -0.1\times10 })= 0.7769 – 0.6321= 0.1448 P(10<X15)=P(X15)P(X10)=(1–e0.1×15)(1–e0.1×10)=0.7769–0.6321=0.1448
所以下一个客户在之后 10-15 分钟内致电的可能性是0.1448 。

参考文章:
https://blog.csdn.net/ccnt_2012/article/details/89875865
在这里插入图片描述

这篇关于指数分布的理解,推导与应用的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1000235

相关文章

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

水位雨量在线监测系统概述及应用介绍

在当今社会,随着科技的飞速发展,各种智能监测系统已成为保障公共安全、促进资源管理和环境保护的重要工具。其中,水位雨量在线监测系统作为自然灾害预警、水资源管理及水利工程运行的关键技术,其重要性不言而喻。 一、水位雨量在线监测系统的基本原理 水位雨量在线监测系统主要由数据采集单元、数据传输网络、数据处理中心及用户终端四大部分构成,形成了一个完整的闭环系统。 数据采集单元:这是系统的“眼睛”,

认识、理解、分类——acm之搜索

普通搜索方法有两种:1、广度优先搜索;2、深度优先搜索; 更多搜索方法: 3、双向广度优先搜索; 4、启发式搜索(包括A*算法等); 搜索通常会用到的知识点:状态压缩(位压缩,利用hash思想压缩)。

csu 1446 Problem J Modified LCS (扩展欧几里得算法的简单应用)

这是一道扩展欧几里得算法的简单应用题,这题是在湖南多校训练赛中队友ac的一道题,在比赛之后请教了队友,然后自己把它a掉 这也是自己独自做扩展欧几里得算法的题目 题意:把题意转变下就变成了:求d1*x - d2*y = f2 - f1的解,很明显用exgcd来解 下面介绍一下exgcd的一些知识点:求ax + by = c的解 一、首先求ax + by = gcd(a,b)的解 这个

hdu1394(线段树点更新的应用)

题意:求一个序列经过一定的操作得到的序列的最小逆序数 这题会用到逆序数的一个性质,在0到n-1这些数字组成的乱序排列,将第一个数字A移到最后一位,得到的逆序数为res-a+(n-a-1) 知道上面的知识点后,可以用暴力来解 代码如下: #include<iostream>#include<algorithm>#include<cstring>#include<stack>#in

zoj3820(树的直径的应用)

题意:在一颗树上找两个点,使得所有点到选择与其更近的一个点的距离的最大值最小。 思路:如果是选择一个点的话,那么点就是直径的中点。现在考虑两个点的情况,先求树的直径,再把直径最中间的边去掉,再求剩下的两个子树中直径的中点。 代码如下: #include <stdio.h>#include <string.h>#include <algorithm>#include <map>#

【区块链 + 人才服务】可信教育区块链治理系统 | FISCO BCOS应用案例

伴随着区块链技术的不断完善,其在教育信息化中的应用也在持续发展。利用区块链数据共识、不可篡改的特性, 将与教育相关的数据要素在区块链上进行存证确权,在确保数据可信的前提下,促进教育的公平、透明、开放,为教育教学质量提升赋能,实现教育数据的安全共享、高等教育体系的智慧治理。 可信教育区块链治理系统的顶层治理架构由教育部、高校、企业、学生等多方角色共同参与建设、维护,支撑教育资源共享、教学质量评估、

uva 10014 Simple calculations(数学推导)

直接按照题意来推导最后的结果就行了。 开始的时候只做到了第一个推导,第二次没有继续下去。 代码: #include<stdio.h>int main(){int T, n, i;double a, aa, sum, temp, ans;scanf("%d", &T);while(T--){scanf("%d", &n);scanf("%lf", &first);scanf

【生成模型系列(初级)】嵌入(Embedding)方程——自然语言处理的数学灵魂【通俗理解】

【通俗理解】嵌入(Embedding)方程——自然语言处理的数学灵魂 关键词提炼 #嵌入方程 #自然语言处理 #词向量 #机器学习 #神经网络 #向量空间模型 #Siri #Google翻译 #AlexNet 第一节:嵌入方程的类比与核心概念【尽可能通俗】 嵌入方程可以被看作是自然语言处理中的“翻译机”,它将文本中的单词或短语转换成计算机能够理解的数学形式,即向量。 正如翻译机将一种语言

AI行业应用(不定期更新)

ChatPDF 可以让你上传一个 PDF 文件,然后针对这个 PDF 进行小结和提问。你可以把各种各样你要研究的分析报告交给它,快速获取到想要知道的信息。https://www.chatpdf.com/