参数估计(一)(点估计)

2023-11-22 19:01
文章标签 参数估计 点估计

本文主要是介绍参数估计(一)(点估计),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 点估计和估计量的求法
    • 点估计概念
    • 矩估计法
    • 极大似然估计法
  • 参考文献

参数估计是数理统计中重要的基本问题之一。通常,称参数的可容许值的全体为参数空间,并记为 Θ \Theta Θ。所谓参数估计就是由样本对总体分布所含的未知参数做出估计。另外,在有些实际问题中,由于事先并不知道总体 X X X 的分布类型,而要对其某些数字特征,如均值、方差等做出估计,习惯上也把这些数字特征称为参数,对它们进行估计也属于参数估计范畴。

点估计和估计量的求法

点估计概念

设总体 X X X 的分布函数是 F ( x ; θ 1 , . . . , θ l ) F(x;\theta_1,...,\theta_l) F(x;θ1,...,θl),其中 θ 1 , . . . , θ l \theta_1,...,\theta_l θ1,...,θl 是未知参数, X 1 , . . . , X n X_1,...,X_n X1,...,Xn 是来自总体 X X X 的样本, x 1 , . . . , x n x_1,...,x_n x1,...,xn 是相应的样本值,参数点估计就是研究如何构造适当的统计量 θ ^ i ( X 1 , . . . , X n ) \hat{\theta}_i(X_1,...,X_n) θ^i(X1,...,Xn),并分别用观察值 θ ^ i ( x 1 , . . . , x n ) \hat{\theta}_i(x_1,...,x_n) θ^i(x1,...,xn) 作为未知参数 θ i \theta_i θi 的估计

通常,称用作估计的统计量 θ ^ i ( X 1 , . . . , X n ) \hat{\theta}_i(X_1,...,X_n) θ^i(X1,...,Xn)估计量,称其观察值 θ ^ i ( x 1 , . . . , x n ) \hat{\theta}_i(x_1,...,x_n) θ^i(x1,...,xn)估计值

由于对不同的样本值,得到的参数估计值往往不同,因此,点估计问题的关键在于构造估计量的方法。下面介绍求估计量的一些常用方法。

矩估计法

设总体 X X X 的分布中含有 l l l 个未知参数 θ 1 , . . . , θ l \theta_1,...,\theta_l θ1,...,θl,又设总体 X X X 的前 l l l 阶原点矩 α k = E ( X k ) ( k = 1 , . . . , l ) \alpha_k=E(X^k)(k=1,...,l) αk=E(Xk)(k=1,...,l) 存在,且是 θ 1 , . . . , θ l \theta_1,...,\theta_l θ1,...,θl 的函数,即 α k = α k ( θ 1 , . . . , θ l ) \alpha_k=\alpha_k(\theta_1,...,\theta_l) αk=αk(θ1,...,θl),令
α k ( θ ^ 1 , . . . , θ ^ l ) = A k , k = 1 , . . . , l \alpha_k(\hat{\theta}_1,...,\hat{\theta}_l)=A_k,\quad k=1,...,l αk(θ^1,...,θ^l)=Ak,k=1,...,l
解此方程组可得 θ ^ 1 , . . . , θ ^ l \hat{\theta}_1,...,\hat{\theta}_l θ^1,...,θ^l,并将它们分别作为 θ 1 , . . . , θ l \theta_1,...,\theta_l θ1,...,θl 的估计量。这种求估计量的方法称为矩估计法,用矩估计法求得的估计量称为矩估计量

例:设总体 X X X 的二阶矩存在, X 1 , . . . , X n X_1,...,X_n X1,...,Xn 为总体 X X X 的样本,求总体均值 μ \mu μ 与总体方差 σ 2 \sigma^2 σ2 的矩估计。

解:因 α 1 = μ , α 2 = σ 2 + μ 2 \alpha_1=\mu, \alpha_2=\sigma^2+\mu^2 α1=μ,α2=σ2+μ2,令 { μ ^ = A 1 = X ˉ σ ^ 2 + μ ^ 2 = A 2 = 1 n ∑ i = 1 n X i 2 \begin{cases} \hat{\mu}=A_1=\bar{X} \\ \hat{\sigma}^2+\hat{\mu}^2=A_2=\frac{1}{n}\sum_{i=1}^n X_i^2 \end{cases} {μ^=A1=Xˉσ^2+μ^2=A2=n1i=1nXi2
解得 μ \mu μ σ 2 \sigma^2 σ2 的矩估计分别为
μ ^ = X ˉ \hat{\mu}=\bar{X} μ^=Xˉ σ ^ 2 = A 2 − X ˉ 2 = S 2 \hat{\sigma}^2=A_2-\bar{X}^2=S^2 σ^2=A2Xˉ2=S2

极大似然估计法

以下用 X = ( X 1 , . . . , X n ) T \boldsymbol{X}=(X_1,...,X_n)^T X=(X1,...,Xn)T 表示样本, x = ( x 1 , . . . , x n ) T \boldsymbol{x}=(x_1,...,x_n)^T x=(x1,...,xn)T 表示样本点, f ( x ; θ ) f(\boldsymbol{x};\theta) f(x;θ) 表示样本分布。

极大似然法的提出是基于如下的想法:

当给定 θ \theta θ 时, f ( x ; θ ) f(\boldsymbol{x};\theta) f(x;θ) 度量样本 X \boldsymbol{X} X x \boldsymbol{x} x 点发生的可能性。对于样本空间中的两个不同样本点 x 1 , x 2 ∈ X \boldsymbol{x}_1, \boldsymbol{x}_2 \in \mathcal{X} x1,x2X,如果有 f ( x 1 ; θ ) > f ( x 2 ; θ ) f(\boldsymbol{x}_1;\theta) > f(\boldsymbol{x}_2;\theta) f(x1;θ)>f(x2;θ),自然会认为样本 X \boldsymbol{X} X 更可能在 x 1 \boldsymbol{x}_1 x1 点发生。

现在换个角度来看待 f ( x ; θ ) f(\boldsymbol{x};\theta) f(x;θ)。当给定样本点 x \boldsymbol{x} x 时,对参数空间中的两个不同参数 θ 1 , θ 2 ∈ Θ \theta_1,\theta_2 \in \Theta θ1,θ2Θ,如果有 f ( x ; θ 1 ) > f ( x ; θ 2 ) f(\boldsymbol{x};\theta_1) > f(\boldsymbol{x};\theta_2) f(x;θ1)>f(x;θ2),那么会认为样本点 x \boldsymbol{x} x是来自总体 f ( X ; θ 1 ) f(\boldsymbol{X};\theta_1) f(X;θ1),所以,数 f ( x ; θ ) f(\boldsymbol{x};\theta) f(x;θ) 的大小可作为参数 θ \theta θ 对产生样本观察值 x \boldsymbol{x} x 有多大似然性的一种度量。

当给定样本点 x \boldsymbol{x} x 时,称 f ( x ; θ ) f(\boldsymbol{x};\theta) f(x;θ) θ \theta θ似然函数,记为 L ( θ ; x ) L(\theta;\boldsymbol{x}) L(θ;x),即
L ( θ ; x ) = f ( x ; θ ) = { ∏ i = 1 n p ( x i ; θ ) , 总体 X 为离散型随机变量 ∏ i = 1 n f ( x i ; θ ) , 总体 X 为连续型随机变量 L(\theta;\boldsymbol{x})=f(\boldsymbol{x};\theta)=\begin{cases} \prod_{i=1}^np(x_i;\theta), & 总体 X 为离散型随机变量 \\ \prod_{i=1}^nf(x_i;\theta), & 总体 X 为连续型随机变量 \end{cases} L(θ;x)=f(x;θ)={i=1np(xi;θ),i=1nf(xi;θ),总体X为离散型随机变量总体X为连续型随机变量
而称 ln ⁡ f ( x ; θ ) \ln f(\boldsymbol{x};\theta) lnf(x;θ)对数似然函数,记为 ln ⁡ L ( θ ; x ) \ln L(\theta;\boldsymbol{x}) lnL(θ;x)

若有统计量 θ ^ ≏ θ ^ ( X ) \hat{\theta}\bumpeq \hat{\theta}(\boldsymbol{X}) θ^θ^(X),使得
L ( θ ^ ( x ) ; x ) = sup ⁡ θ ∈ Θ { L ( θ ; x ) } L(\hat{\theta}(\boldsymbol{x});\boldsymbol{x})=\sup_{\theta \in \Theta}\{L(\theta;\boldsymbol{x})\} L(θ^(x);x)=θΘsup{L(θ;x)}
或等价的,使得
ln ⁡ L ( θ ^ ( x ) ; x ) = sup ⁡ θ ∈ Θ { ln ⁡ L ( θ ; x ) } \ln L(\hat{\theta}(\boldsymbol{x});\boldsymbol{x})=\sup_{\theta \in \Theta}\{\ln L(\theta;\boldsymbol{x})\} lnL(θ^(x);x)=θΘsup{lnL(θ;x)}
则称 θ ^ ( X ) \hat{\theta}(\boldsymbol{X}) θ^(X) 为参数 θ \theta θ极大似然估计量(Maximum Likelihood Estimators, MLE)。

例:设总体 X ∼ P ( λ ) , λ > 0 X \sim P(\lambda),\lambda>0 XP(λ),λ>0,试求参数 λ \lambda λ 的极大似然估计量。

解: X X X 的概率函数为
P { X = x } = λ x x ! e − λ , x = 0 , 1 , 2 , . . . P\{X=x\}=\frac{\lambda^x}{x!}e^{-\lambda},\quad x=0,1,2,... P{X=x}=x!λxeλ,x=0,1,2,...
λ \lambda λ 的似然函数为
L ( λ ) = ∏ i = 1 n ( λ x i x i ! e − λ ) = e − n λ λ ∑ i = 1 n x i ∏ i = 1 n ( x i ! ) L(\lambda)=\prod_{i=1}^n (\frac{\lambda^{x_i}}{x_i!}e^{-\lambda})=e^{-n\lambda}\frac{\lambda^{\sum_{i=1}^nx_i}}{\prod_{i=1}^n(x_i!)} L(λ)=i=1n(xi!λxieλ)=ei=1n(xi!)λi=1nxi
对数似然函数为
ln ⁡ L ( λ ) = − n λ + ln ⁡ λ ∑ i = 1 n x i − ∑ i = 1 n ln ⁡ ( x i ! ) \ln L(\lambda)=-n\lambda+\ln \lambda \sum_{i=1}^nx_i-\sum_{i=1}^n \ln(x_i!) lnL(λ)=+lnλi=1nxii=1nln(xi!)

∂ ln ⁡ L ( λ ) ∂ λ = − n + 1 λ ∑ i = 1 n x i = 0 \frac{\partial \ln L(\lambda)}{\partial \lambda}=-n+\frac{1}{\lambda}\sum_{i=1}^nx_i=0 λlnL(λ)=n+λ1i=1nxi=0
该似然方程有唯一解 λ ^ = 1 n ∑ i = 1 n x i = x ˉ \hat{\lambda}=\frac{1}{n}\sum_{i=1}^nx_i=\bar{x} λ^=n1i=1nxi=xˉ,又因
∂ 2 ln ⁡ L ( λ ) ∂ λ 2 ∣ λ = x ˉ < 0 \frac{\partial^2 \ln L(\lambda)}{\partial \lambda^2}|_{\lambda=\bar{x}}<0 λ22lnL(λ)λ=xˉ<0
λ \lambda λ 的极大似然估计量为 λ ^ = X ˉ \hat{\lambda}=\bar{X} λ^=Xˉ

参考文献

[1] 《应用数理统计》,施雨,西安交通大学出版社。

这篇关于参数估计(一)(点估计)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/412255

相关文章

参数估计,置信区间

参数估计: 用样本统计量去估计总体的参数。 置信区间: 大数定律: 样本多了能代表整体。         中心极限定理: 随机变量,量大会接近正态分布。  python代码实现 import numpy as nprandom_data = np.random.randint(1,7,1000)print(random_data)samples = []

(未完待续)概率论之参数估计

两个独立正态总体的均值比较 情况一: 例子 情况二: 情况三: 两个非正态分布总体的均值比较 例子: 两个总体比例比较 例子: 两个独立正态总体的方差比较 估计量与估计值 对于已知类型的分布,估计分布函数参数是关键 无偏性 有效性 相合性 矩阵计法 均匀分布的矩估计量 正态分布的矩估计量

概率统计Python计算:一元线性回归未知参数的点估计

设试验结果可表为随机变量 Y Y Y,影响试验结果 Y Y Y的因素是可控的且表为普通变量 x x x,若 Y Y Y~ N ( a x + b , σ 2 ) N(ax+b,\sigma^2) N(ax+b,σ2),其中 a , b a,b a,b即 σ 2 \sigma^2 σ2均为未知参数。对 x x x的一系列取值 ( x 1 , x 2 , ⋯ , x n ) (x_1,x_2,\cd

统计是一门艺术(点估计)

1 点估计 1.1 点估计理解(point estimate) 总体,样本属于参数空间 一般未知,要由样本对作一个估计,或对作一个估计,这种估计称为点估计 通常用记为的一个点估计。 1.2 点估计的方法 (1)矩估计: 就是用样本矩来代替总体矩,当然有好有坏 设为总体的一个简单随机样本,, 分别称, 为k阶样本原点矩和k阶样本中心矩. 记 为什么能用矩估计?

python数据分析--- ch12-13 python参数估计与假设检验

python数据分析--- ch12-13 python参数估计与假设检验 1. Ch12--python 参数估计1.1 参数估计与置信区间的含义及函数版1.1.1 参数估计与置信区间的含义1.1.2 参数估计函数版1.1.3 参数估计函数版 1.2 Python单正态总体均值区间估计1.2.1 方差 σ 2 \sigma^2 σ2已知1.2.2 方差 σ 2 \sigma^2 σ2未知

贝叶斯参数估计vs贝叶斯学习

贝叶斯参数估计和贝叶斯学习都依赖于贝叶斯定理,都强调先验概率在推断过程中的重要性,并都使用后验概率进行参数估计或总体分布的推断。 贝叶斯参数估计更侧重于如何利用贝叶斯定理进行具体的参数估计,使总期望风险最小;而贝叶斯学习更侧重于如何利用贝叶斯定理和先验信息进行总体的学习和推理过程。 贝叶斯参数估计 定义:贝叶斯参数估计是一种参数估计方法,它利用贝叶斯定理结合新的证据(观测数据)及以前的先验概率

【计算机视觉】Lecture 14:参数估计

总结:变换 参数估计 我们将会讨论以下方面的参数估计: 几何模型(如直线、平面、曲面)几何变换(我们讨论过的任何参数化变换) 最小二乘法是解决这两个问题的通用策略! 参数估计:拟合几何模型 总体思路: 希望使模型适合原始图像特征(数据):特征可以是点,边缘,甚至区域参数化模型:模型例子是Rn的一个元素,也就是模型实例 = (a1, a2,…,an)定义一个误差函数E(模型i,数据

MATLAB中对自定义函数进行参数估计的方法

先输入x和y的数据。然后在matlab的工作栏输入cftool.在弹出来的拟合工具箱内选择变量为你的x和y.然后右边的拟合方法选择custom equation,然后输入你要拟合的式子的形式,按fit就可以拟合了。

[闲聊统计]之参数估计是什么?(上)

参数估计是推断统计的重要内容之一。它是在抽样及抽样分布的基础上,根据样本统计量来推断所关心的总体参数。说白了,就是用样本信息来代替总体信息 例如:现在要调查某大学大学生的一个消费情况,假设全校大学生的平均消费金额为 μ \mu μ,那么我们随机抽取一个样本,这个样本的平均消费水平为 x ‾ \overline{x} x,理论上,可以用 x ‾ \overline{x} x代替 μ \mu

(八)目标跟踪中参数估计(似然、贝叶斯估计)理论知识

目录 前言 一、统计学基础知识 (一)随机变量 (二)全概率公式 (三)高斯分布及其性质 二、似然是什么? (一)概率和似然 (二)极大似然估计 三、贝叶斯估计 (一)古典统计学与贝叶斯统计学的区别 (二)贝叶斯公式 总结 前言         目标跟踪过程可以看做参数估计的过程,即利用测量信息实时对目标状态进行估计,需要用到很多概率统计的基础知识。在此针对参数估计