本文主要是介绍【概率论】期末复习笔记:参数估计,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
参数估计目录
- 一、点估计
- 1. 估计量的概念
- 2. 估计量的求法
- 矩估计法
- 最大似然估计法
- 二、估计量的评选标准
- 1. 无偏性
- 2. 有效性
- 3. 相合性
- 总结
- 三、区间估计
- 1. 双侧区间估计
- 2. 单侧区间估计
- 四、正态总体参数的区间估计
- σ 2 已知,考察 μ \color{dodgerblue}\sigma^2\text{已知,考察}\mu σ2已知,考察μ
- σ 2 未知,考察 μ \color{dodgerblue}\sigma^2\text{未知,考察}\mu σ2未知,考察μ
- μ 已知,考察 σ 2 \color{dodgerblue}\mu\text{已知,考察}\sigma^2 μ已知,考察σ2
- μ 未知,考察 σ 2 \color{dodgerblue}\mu\text{未知,考察}\sigma^2 μ未知,考察σ2
- σ 1 2 , σ 2 2 已知,考察 μ 1 − μ 2 \color{dodgerblue}\sigma_1^2,\sigma_2^2\text{已知,考察}\mu_1-\mu_2 σ12,σ22已知,考察μ1−μ2
- σ 1 2 = σ 2 2 未知,考察 μ 1 − μ 2 \color{dodgerblue}\sigma_1^2=\sigma_2^2\text{未知,考察}\mu_1-\mu_2 σ12=σ22未知,考察μ1−μ2
- μ 1 , μ 2 已知,考察 σ 1 2 σ 2 2 \color{dodgerblue}\mu_1,\mu_2\text{已知,考察}\frac{\sigma_1^2}{\sigma_2^2} μ1,μ2已知,考察σ22σ12
- μ 1 , μ 2 未知,考察 σ 1 2 σ 2 2 \color{dodgerblue}\mu_1,\mu_2\text{未知,考察}\frac{\sigma_1^2}{\sigma_2^2} μ1,μ2未知,考察σ22σ12
一、点估计
1. 估计量的概念
点估计:设总体 X X X的分布函数为 F ( x ; θ 1 , θ 2 , ⋯ , θ l ) F(x;\theta_1,\theta_2,\cdots,\theta_l) F(x;θ1,θ2,⋯,θl),其中 θ 1 , θ 2 , ⋯ , θ l \theta_1,\theta_2,\cdots,\theta_l θ1,θ2,⋯,θl是待估计的未知参数, ( X 1 , X 2 , ⋯ , X n ) (X_1,X_2,\cdots,X_n) (X1,X2,⋯,Xn)是来自总体 X X X的样本, ( x 1 , x 2 , ⋯ , x n ) (x_1,x_2,\cdots,x_n) (x1,x2,⋯,xn)是相应的样本值,点估计问题就是要构造 l l l个适当的统计量 θ ^ i ( X 1 , X 2 , ⋯ , X n ) ( i = 1 , 2 , ⋯ , l ) \hat{\theta}_i(X_1,X_2,\cdots,X_n)\,(i=1,2,\cdots,l) θ^i(X1,X2,⋯,Xn)(i=1,2,⋯,l),分别用观测值 θ ^ i ( x 1 , x 2 , ⋯ , x n ) \hat{\theta}_i(x_1,x_2,\cdots,x_n) θ^i(x1,x2,⋯,xn)作为未知参数 θ i \theta_i θi的估计值。
估计量:估计用的统计量 θ ^ i ( X 1 , X 2 , ⋯ , X n ) \hat{\theta}_i(X_1,X_2,\cdots,X_n) θ^i(X1,X2,⋯,Xn)
估计值:估计量的观测值 θ ^ i ( x 1 , x 2 , ⋯ , x n ) \hat{\theta}_i(x_1,x_2,\cdots,x_n) θ^i(x1,x2,⋯,xn)
在不致混淆的情况下统称估计量和估计值为估计,并都简记为 θ ^ i \hat{\theta}_i θ^i。
估计量是样本的函数,是随机变量,不同的样本值得到的估计值往往是不同的。
2. 估计量的求法
矩估计法
设总体 X X X的前 l l l阶原点矩 α k = E ( X k ) ( k = 1 , 2 , ⋯ , l ) \alpha_k=E\left(X^k\right)\,(k=1,2,\cdots,l) αk=E(Xk)(k=1,2,⋯,l)存在,且都是 θ 1 , θ 2 , ⋯ , θ l \theta_1,\theta_2,\cdots,\theta_l θ1,θ2,⋯,θl的函数,即 α k = α k ( θ 1 , θ 2 , ⋯ , θ l ) \alpha_k=\alpha_k(\theta_1,\theta_2,\cdots,\theta_l) αk=αk(θ1,θ2,⋯,θl)。把总体原点矩用样本原点矩代替( α k → A k \alpha_k\to A_k αk→Ak),未知参数用其估计量代替( θ i → θ ^ i \theta_i\to\hat{\theta}_i θi→θ^i),得 { α 1 ( θ ^ 1 , θ ^ 2 , ⋯ , θ ^ l ) = A 1 α 2 ( θ ^ 1 , θ ^ 2 , ⋯ , θ ^ l ) = A 2 ⋯ α l ( θ ^ 1 , θ ^ 2 , ⋯ , θ ^ l ) = A l \begin{cases} \alpha_1\left(\hat{\theta}_1,\hat{\theta}_2,\cdots,\hat{\theta}_l\right)=A_1\\ \alpha_2\left(\hat{\theta}_1,\hat{\theta}_2,\cdots,\hat{\theta}_l\right)=A_2\\ \cdots\\ \alpha_l\left(\hat{\theta}_1,\hat{\theta}_2,\cdots,\hat{\theta}_l\right)=A_l \end{cases} ⎩ ⎨ ⎧α1(θ^1,θ^2,⋯,θ^l)=A1α2(θ^1,θ^2,⋯,θ^l)=A2⋯αl(θ^1,θ^2,⋯,θ^l)=Al解此方程组可得 θ ^ 1 , θ ^ 2 , ⋯ , θ ^ l \hat{\theta}_1,\hat{\theta}_2,\cdots,\hat{\theta}_l θ^1,θ^2,⋯,θ^l(是 A 1 , A 2 , ⋯ , A k A_1,A_2,\cdots,A_k A1,A2,⋯,Ak的函数),并将它们分别作为 θ 1 , θ 2 , ⋯ , θ l \theta_1,\theta_2,\cdots,\theta_l θ1,θ2,⋯,θl的估计量。 A 1 A_1 A1一般写作 X ‾ \overline{X} X。
矩估计法的理论依据是大数定律,当 n n n充分大时,样本矩 A k A_k Ak以很大的概率落在总体矩 α k \alpha_k αk的附近,因此可用 A k A_k Ak作为 α k \alpha_k αk的矩估计量。
例 X ~ U ( 0 , θ ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}X\td U(0,\theta) X~U(0,θ),求 θ \theta θ的矩估计量。
解:我们知道 α 1 = E ( X ) = θ 2 \alpha_1=E(X)=\frac{\theta}{2} α1=E(X)=2θ把 α 1 \alpha_1 α1换成 A 1 A_1 A1( X ‾ \overline{X} X), θ \theta θ换成 θ ^ \hat{\theta} θ^得 X ‾ = θ ^ 2 \overline{X}=\frac{\hat{\theta}}{2} X=2θ^因此 θ \theta θ的矩估计量为 θ ^ = 2 X ‾ \hat{\theta}=2\overline{X} θ^=2X。
矩估计法不必知道总体的分布,优点是简单直接,但缺点是只利用了总体的局部特性而没有充分利用总体的信息。
最大似然估计法
思想:若存在某一分布,使得在此分布下抽中 ( x 1 , x 2 , ⋯ , x n ) (x_1,x_2,\cdots,x_n) (x1,x2,⋯,xn)的概率最大,则认为 ( x 1 , x 2 , ⋯ , x n ) (x_1,x_2,\cdots,x_n) (x1,x2,⋯,xn)来自这一分布。
似然函数:若总体 X X X是离散型或连续型随机变量,其分布律为 P { X = x } = p ( x ; θ 1 , θ 2 , ⋯ , θ l ) P\{X=x\}=p(x;\theta_1,\theta_2,\cdots,\theta_l) P{X=x}=p(x;θ1,θ2,⋯,θl),或其概率密度为 f ( x ; θ 1 , θ 2 , ⋯ , θ l ) f(x;\theta_1,\theta_2,\cdots,\theta_l) f(x;θ1,θ2,⋯,θl),其中 θ 1 , θ 2 , ⋯ , θ l \theta_1,\theta_2,\cdots,\theta_l θ1,θ2,⋯,θl为未知参数,在参数空间 Θ \Theta Θ内取值,变量 x x x在随机变量 X X X的可能取值范围内取值。设 ( X 1 , X 2 , ⋯ , X n ) (X_1,X_2,\cdots,X_n) (X1,X2,⋯,Xn)是来自总体 X X X的样本,则 ( X 1 , X 2 , ⋯ , X n ) (X_1,X_2,\cdots,X_n) (X1,X2,⋯,Xn)的分布律为 L ( x 1 , x 2 , ⋯ , x n ; θ 1 , θ 2 , ⋯ , θ l ) = P { X 1 = x 1 , X 2 = x 2 , ⋯ , X n = x n } = ∏ i = 1 n p ( x i ; θ 1 , θ 2 , ⋯ , θ l ) \begin{aligned} L(x_1,x_2,\cdots,x_n;\theta_1,\theta_2,\cdots,\theta_l)&=P\{X_1=x_1,X_2=x_2,\cdots,X_n=x_n\}\\ &=\prod\limits_{i=1}^n p(x_i;\theta_1,\theta_2,\cdots,\theta_l) \end{aligned} L(x1,x2,⋯,xn;θ1,θ2,⋯,θl)=P{X1=x1,X2=x2,⋯,Xn=xn}=i=1∏np(xi;θ1,θ2,⋯,θl)或概率密度为 L ( x 1 , x 2 , ⋯ , x n ; θ 1 , θ 2 , ⋯ , θ l ) = ∏ i = 1 n f ( x i ; θ 1 , θ 2 , ⋯ , θ l ) L(x_1,x_2,\cdots,x_n;\theta_1,\theta_2,\cdots,\theta_l)=\prod\limits_{i=1}^n f(x_i;\theta_1,\theta_2,\cdots,\theta_l) L(x1,x2,⋯,xn;θ1,θ2,⋯,θl)=i=1∏nf(xi;θ1,θ2,⋯,θl)当固定 ( x 1 , x 2 , ⋯ , x n ) (x_1,x_2,\cdots,x_n) (x1,x2,⋯,xn),把 L L L看成是 θ 1 , θ 2 , ⋯ , θ l \theta_1,\theta_2,\cdots,\theta_l θ1,θ2,⋯,θl的定义于 Θ \Theta Θ上的函数时,它称为参数 θ 1 , θ 2 , ⋯ , θ l \theta_1,\theta_2,\cdots,\theta_l θ1,θ2,⋯,θl的似然函数,并简记为 L ( θ 1 , θ 2 , ⋯ , θ l ) L(\theta_1,\theta_2,\cdots,\theta_l) L(θ1,θ2,⋯,θl)。即:似然函数就是样本的分布律/概率密度,然后看成参数的函数。
对数似然函数:似然函数的对数 ln L ( θ 1 , θ 2 , ⋯ , θ l ) \ln L(\theta_1,\theta_2,\cdots,\theta_l) lnL(θ1,θ2,⋯,θl)称为对数似然函数。
最大似然估计法:得到样本值 ( x 1 , x 2 , ⋯ , x n ) (x_1,x_2,\cdots,x_n) (x1,x2,⋯,xn)后,取 θ ^ 1 , θ ^ 2 , ⋯ , θ ^ n \hat{\theta}_1,\hat{\theta}_2,\cdots,\hat{\theta}_n θ^1,θ^2,⋯,θ^n使得 L ( θ ^ 1 , θ ^ 2 , ⋯ , θ ^ n ) = max ( θ 1 , θ 2 , ⋯ , θ l ) ∈ Θ L ( θ 1 , θ 2 , ⋯ , θ l ) L(\hat{\theta}_1,\hat{\theta}_2,\cdots,\hat{\theta}_n)=\max\limits_{(\theta_1,\theta_2,\cdots,\theta_l)\in\Theta}L(\theta_1,\theta_2,\cdots,\theta_l) L(θ^1,θ^2,⋯,θ^n)=(θ1,θ2,⋯,θl)∈ΘmaxL(θ1,θ2,⋯,θl)这样得到的 θ ^ 1 , θ ^ 2 , ⋯ , θ ^ n \hat{\theta}_1,\hat{\theta}_2,\cdots,\hat{\theta}_n θ^1,θ^2,⋯,θ^n与样本值 ( x 1 , x 2 , ⋯ , x n ) (x_1,x_2,\cdots,x_n) (x1,x2,⋯,xn)有关,记为 θ ^ i = θ ^ i ( x 1 , x 2 , ⋯ , x n ) \hat{\theta}_i=\hat{\theta}_i(x_1,x_2,\cdots,x_n) θ^i=θ^i(x1,x2,⋯,xn),并称为参数 θ i ( i = 1 , 2 , ⋯ , l ) \theta_i\,(i=1,2,\cdots,l) θi(i=1,2,⋯,l)的最大似然估计值,而相应的统计量 θ ^ i = θ ^ i ( X 1 , X 2 , ⋯ , X n ) ( i = 1 , 2 , ⋯ , l ) \hat{\theta}_i=\hat{\theta}_i(X_1,X_2,\cdots,X_n)\,(i=1,2,\cdots,l) θ^i=θ^i(X1,X2,⋯,Xn)(i=1,2,⋯,l)称为参数 θ i \theta_i θi的最大似然估计量。
由于 ln x \ln x lnx是 x x x的单调增函数,所以 L L L取最大的时候 ln L \ln L lnL也取最大,我们也可以考察 ln L \ln L lnL的最大值。
在很多时候, L L L和 ln L \ln L lnL关于参数 θ 1 , θ 2 , ⋯ , θ l \theta_1,\theta_2,\cdots,\theta_l θ1,θ2,⋯,θl的偏导数存在,此时 θ ^ 1 , θ ^ 2 , ⋯ , θ ^ n \hat{\theta}_1,\hat{\theta}_2,\cdots,\hat{\theta}_n θ^1,θ^2,⋯,θ^n可从似然方程 { ∂ L ( θ 1 , θ 2 , ⋯ , θ l ) ∂ θ 1 = 0 ∂ L ( θ 1 , θ 2 , ⋯ , θ l ) ∂ θ 2 = 0 ⋯ ∂ L ( θ 1 , θ 2 , ⋯ , θ l ) ∂ θ l = 0 \begin{cases} \cfrac{\partial L(\theta_1,\theta_2,\cdots,\theta_l)}{\partial\theta_1}=0\\ \cfrac{\partial L(\theta_1,\theta_2,\cdots,\theta_l)}{\partial\theta_2}=0\\ \cdots\\ \cfrac{\partial L(\theta_1,\theta_2,\cdots,\theta_l)}{\partial\theta_l}=0 \end{cases} ⎩ ⎨ ⎧∂θ1∂L(θ1,θ2,⋯,θl)=0∂θ2∂L(θ1,θ2,⋯,θl)=0⋯∂θl∂L(θ1,θ2,⋯,θl)=0或对数似然方程 { ∂ ln L ( θ 1 , θ 2 , ⋯ , θ l ) ∂ θ 1 = 0 ∂ ln L ( θ 1 , θ 2 , ⋯ , θ l ) ∂ θ 2 = 0 ⋯ ∂ ln L ( θ 1 , θ 2 , ⋯ , θ l ) ∂ θ l = 0 \begin{cases} \cfrac{\partial\ln L(\theta_1,\theta_2,\cdots,\theta_l)}{\partial\theta_1}=0\\ \cfrac{\partial\ln L(\theta_1,\theta_2,\cdots,\theta_l)}{\partial\theta_2}=0\\ \cdots\\ \cfrac{\partial\ln L(\theta_1,\theta_2,\cdots,\theta_l)}{\partial\theta_l}=0 \end{cases} ⎩ ⎨ ⎧∂θ1∂lnL(θ1,θ2,⋯,θl)=0∂θ2∂lnL(θ1,θ2,⋯,θl)=0⋯∂θl∂lnL(θ1,θ2,⋯,θl)=0中解出。
例 设 X ~ U ( 0 , θ ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}X\td U(0,\theta) X~U(0,θ),求 θ \theta θ的最大似然估计量。
解: X X X的概率密度为 f ( x ; θ ) = { 1 θ , 0 ≤ x ≤ θ 0 , 其他 f(x;\theta)=\begin{cases}\frac{1}{\theta},&0\le x\le\theta\\0,&\text{其他}\end{cases} f(x;θ)={θ1,0,0≤x≤θ其他则样本 ( X 1 , X 2 , ⋯ , X n ) (X_1,X_2,\cdots,X_n) (X1,X2,⋯,Xn)的联合概率密度为 f ( x 1 , x 2 , ⋯ , x n ; θ ) = ∏ i = 1 n f ( x i ; θ ) = { 1 θ n , 0 ≤ x 1 , x 2 , ⋯ , x n ≤ θ 0 , 其他 f(x_1,x_2,\cdots,x_n;\theta)=\prod\limits_{i=1}^n f(x_i;\theta)=\begin{cases} \frac{1}{\theta^n},&0\le x_1,x_2,\cdots,x_n\le\theta\\ 0,&\text{其他} \end{cases} f(x1,x2,⋯,xn;θ)=i=1∏nf(xi;θ)={θn1,0,0≤x1,x2,⋯,xn≤θ其他把它看作 θ \theta θ的函数( x 1 , x 2 , ⋯ , x n x_1,x_2,\cdots,x_n x1,x2,⋯,xn为已知),那么 θ \theta θ的似然函数为 L ( θ ) = { 1 θ n , θ ≥ max { x 1 , x 2 , ⋯ , x n } 0 , 其他 L(\theta)=\begin{cases} \frac{1}{\theta^n},&\theta\ge\max\{x_1,x_2,\cdots,x_n\}\\ 0,&\text{其他} \end{cases} L(θ)={θn1,0,θ≥max{x1,x2,⋯,xn}其他这个函数我们不用求导就能求出最大值。首先,它在 θ ≥ max { x 1 , x 2 , ⋯ , x n } \theta\ge\max\{x_1,x_2,\cdots,x_n\} θ≥max{x1,x2,⋯,xn}时才是正数;其次,在 θ \theta θ满足这个条件的情况下,因为 θ n \theta^n θn在分母,所以我们希望 θ \theta θ尽量小。因此当 θ = max { x 1 , x 2 , ⋯ , x n } \theta=\max\{x_1,x_2,\cdots,x_n\} θ=max{x1,x2,⋯,xn}时 L ( θ ) L(\theta) L(θ)取最大值。 θ \theta θ的最大似然估计量为 θ ^ = X ( n ) \hat{\theta}=X_{(n)} θ^=X(n)。这与矩估计法求得的估计量不同。
二、估计量的评选标准
1. 无偏性
无偏估计量:设 ( X 1 , X 2 , ⋯ , X n ) (X_1,X_2,\cdots,X_n) (X1,X2,⋯,Xn)是来自总体 X X X的一个样本, θ \theta θ是包含在 X X X的分布中的未知参数, θ \theta θ的取值范围为 Θ \Theta Θ, θ ^ = θ ^ ( X 1 , X 2 , ⋯ , X n ) \hat{\theta}=\hat{\theta}(X_1,X_2,\cdots,X_n) θ^=θ^(X1,X2,⋯,Xn)是 θ \theta θ的一个估计量。若 ∀ θ ∈ Θ \forall\theta\in\Theta ∀θ∈Θ, E ( θ ^ ) = θ E\left(\hat{\theta}\right)=\theta E(θ^)=θ,则称 θ ^ \hat{\theta} θ^是 θ \theta θ的一个无偏估计量。
有偏估计量:有偏差的估计量,其中偏差(简称偏)等于 E ( θ ^ ) − θ E\left(\hat{\theta}\right)-\theta E(θ^)−θ。
渐进无偏估计量:若 E ( θ ^ ) − θ ≠ 0 E\left(\hat{\theta}\right)-\theta\ne0 E(θ^)−θ=0,但当样本容量 n → ∞ n\to\infty n→∞时,有 lim n → ∞ [ E ( θ ^ ) − θ ] = 0 \lim\limits_{n\to\infty}\left[E\left(\hat{\theta}\right)-\theta\right]=0 n→∞lim[E(θ^)−θ]=0,则称 θ ^ \hat{\theta} θ^是 θ \theta θ的渐近无偏估计量。
设 ( X 1 , X 2 , ⋯ , X n ) (X_1,X_2,\cdots,X_n) (X1,X2,⋯,Xn)是来自总体 X X X的样本,无论 X X X服从什么分布,都有
(1) 若 E ( X ) = μ E(X)=\mu E(X)=μ存在,则样本均值 X ‾ \overline{X} X是 E ( X ) E(X) E(X)的无偏估计量;
(2) 若 D ( X ) = σ 2 D(X)=\sigma^2 D(X)=σ2存在,则样本方差 S 2 S^2 S2是 σ 2 \sigma^2 σ2的无偏估计量;
(3) 若总体 k k k阶矩 E ( X k ) = α k E\left(X^k\right)=\alpha_k E(Xk)=αk存在,则 k k k阶样本原点矩 A k = 1 k ∑ i = 1 n X i k A_k=\frac{1}{k}\sum\limits_{i=1}^n X_i^k Ak=k1i=1∑nXik是 k k k阶总体原点矩 α k \alpha_k αk的无偏估计量。
例 可以证明,设总体 X ~ U ( 0 , θ ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}X\td U(0,\theta) X~U(0,θ),参数 θ > 0 \theta>0 θ>0,则 2 X ‾ 2\overline{X} 2X和 n + 1 n X ( n ) \frac{n+1}{n}X_{(n)} nn+1X(n)都是 θ \theta θ的无偏估计量。
虽然 S 2 S^2 S2是 σ 2 \sigma^2 σ2的无偏估计量,但 S S S不是 σ \sigma σ的无偏估计量, n − 1 2 Γ ( n − 1 2 ) Γ ( n 2 ) S \sqrt{\frac{n-1}{2}}\frac{\Gamma\left(\frac{n-1}{2}\right)}{\Gamma\left(\frac{n}{2}\right)}S 2n−1Γ(2n)Γ(2n−1)S才是 σ \sigma σ的无偏估计量。这说明,若 θ ^ \hat{\theta} θ^是 θ \theta θ的无偏估计量,一般情况下, g ( θ ^ ) g\left(\hat{\theta}\right) g(θ^)不是 θ \theta θ的无偏估计量,除非 g g g是线性函数。
2. 有效性
无偏估计量不一定是唯一的,所以我们需要选取其中取值最集中的,即方差最小的作为最好的估计量。
有效性:设 θ ^ 1 \hat{\theta}_1 θ^1和 θ ^ 2 \hat{\theta}_2 θ^2都是 θ \theta θ的无偏估计量,若 D ( θ ^ 1 ) ≤ D ( θ ^ 2 ) D\left(\hat{\theta}_1\right)\le D\left(\hat{\theta}_2\right) D(θ^1)≤D(θ^2),则称 θ ^ 1 \hat{\theta}_1 θ^1较 θ ^ 2 \hat{\theta}_2 θ^2有效。
例 设 X ~ U ( 0 , θ ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}X\td U(0,\theta) X~U(0,θ),则 θ ^ 2 = n + 1 n X ( n ) \hat{\theta}_2=\frac{n+1}{n}X_{(n)} θ^2=nn+1X(n)比 θ ^ 1 = 2 X ‾ \hat{\theta}_1=2\overline{X} θ^1=2X有效( D ( θ ^ 1 ) = θ 2 3 n > D ( θ ^ 2 ) = θ 2 n ( n + 2 ) D\left(\hat{\theta}_1\right)=\frac{\theta^2}{3n}>D\left(\hat{\theta}_2\right)=\frac{\theta^2}{n(n+2)} D(θ^1)=3nθ2>D(θ^2)=n(n+2)θ2)。
最小方差无偏估计量:在所有估计量中方差最小的无偏估计量
3. 相合性
相合估计量/一致估计量:设 θ ^ = θ ^ ( X 1 , X 2 , ⋯ , X n ) \hat{\theta}=\hat{\theta}(X_1,X_2,\cdots,X_n) θ^=θ^(X1,X2,⋯,Xn)是参数 θ \theta θ的估计量,如果当 n → ∞ n\to\infty n→∞时, θ ^ \hat{\theta} θ^依概率收敛于 θ \theta θ,即 ∀ ε > 0 , lim n → ∞ P { ∣ θ ^ − θ ∣ < ε } = 1 \forall\varepsilon>0,\,\lim\limits_{n\to\infty}P\left\{\left|\hat{\theta}-\theta\right|<\varepsilon\right\}=1 ∀ε>0,n→∞limP{ θ^−θ <ε}=1则称 θ ^ \hat{\theta} θ^为 θ \theta θ的相合估计量/一致估计量,并记 ( p ) lim n → ∞ θ ^ = θ (p)\lim\limits_{n\to\infty}\hat{\theta}=\theta (p)n→∞limθ^=θ或 θ ^ ⟶ P θ ( n → ∞ ) \hat{\theta}\overset{P}{\longrightarrow}\theta(n\to\infty) θ^⟶Pθ(n→∞)。
均方相合估计量:如果当 n → ∞ n\to\infty n→∞时, θ ^ \hat{\theta} θ^均方收敛于 θ \theta θ,即 lim n → ∞ E [ ( θ ^ − θ ) 2 ] = 0 \lim\limits_{n\to\infty}E\left[{\left(\hat{\theta}-\theta\right)}^2\right]=0 n→∞limE[(θ^−θ)2]=0则称 θ ^ \hat{\theta} θ^为 θ \theta θ的均方相合估计量,并记 ( m. s. ) lim n → ∞ θ ^ = θ \newcommand{\ms}{(\text{m. s. })}\ms\lim\limits_{n\to\infty}\hat{\theta}=\theta (m. s. )n→∞limθ^=θ或 θ ^ ⟶ L 2 θ ( n → ∞ ) \hat{\theta}\overset{L^2}{\longrightarrow}\theta(n\to\infty) θ^⟶L2θ(n→∞)。
相合性是对估计量的最基本的要求,它要求当样本容量无限增加时,用估计量估计参数可以达到任意小的精度。
可以证明,常见的矩估计量都是相合估计量(例如 A k → α k A_k\to\alpha_k Ak→αk、 X ‾ → E ( X ) \overline{X}\to E(X) X→E(X)、 S 2 → σ 2 S^2\to\sigma^2 S2→σ2、 S → σ S\to\sigma S→σ)。均方相合估计量一定是相合估计量,但反之不一定成立。
一个重要事实:设总体 X X X的分布函数为 F ( x ) F(x) F(x), ( X 1 , X 2 , ⋯ , X n ) (X_1,X_2,\cdots,X_n) (X1,X2,⋯,Xn)为来自总体 X X X的样本, F n ( X ) = 1 n ∑ i = 1 n [ X i ≤ x ] F_n(X)=\frac{1}{n}\sum\limits_{i=1}^n [X_i\le x] Fn(X)=n1i=1∑n[Xi≤x]是经验分布函数,则对任意固定的 x x x, F n ( x ) F_n(x) Fn(x)是 F ( x ) F(x) F(x)的无偏估计量、相合估计量、均方相合估计量。
总结
无偏性: E ( θ ^ ) = θ E\left(\hat{\theta}\right)=\theta E(θ^)=θ
有效性:方差越小越好
相合性:依概率收敛(样本容量足够大时估计值与真实值之间的差距可以任意小)
三、区间估计
1. 双侧区间估计
P { θ ^ 1 ( X 1 , X 2 , ⋯ , X n ) < θ < θ ^ 2 ( X 1 , X 2 , ⋯ , X n ) } = 1 − α ⇓ \underset{\large\Downarrow}{P\left\{ \hat{\theta}_1(X_1,X_2,\cdots,X_n)<\theta<\hat{\theta}_2(X_1,X_2,\cdots,X_n) \right\}=1-\alpha} ⇓P{θ^1(X1,X2,⋯,Xn)<θ<θ^2(X1,X2,⋯,Xn)}=1−α随机区间 ( θ ^ 1 , θ ^ 2 ) \left(\hat{\theta}_1,\hat{\theta}_2\right) (θ^1,θ^2)为参数 θ \theta θ的置信度为 1 − α 1-\alpha 1−α的双侧置信区间。
θ ^ 1 \hat{\theta}_1 θ^1:置信下限
θ ^ 2 \hat{\theta}_2 θ^2:置信上限
1 − α 1-\alpha 1−α:置信度
α \alpha α:区间 ( θ ^ 1 , θ ^ 2 ) \left(\hat{\theta}_1,\hat{\theta}_2\right) (θ^1,θ^2)不包含 θ \theta θ的概率(一般很小)
在置信度 1 − α 1-\alpha 1−α给定的情况下,置信区间的长度 E ( θ ^ 2 − θ ^ 1 ) E\left(\hat{\theta}_2-\hat{\theta}_1\right) E(θ^2−θ^1)越小越好。
求未知参数 θ \theta θ的双侧置信区间的具体做法:
(1) 寻求枢轴量 Z = Z ( X 1 , X 2 , ⋯ , X n , θ ) Z=Z\left(X_1,X_2,\cdots,X_n,\theta\right) Z=Z(X1,X2,⋯,Xn,θ),我们需要知道 Z Z Z的分布,并且此分布不依赖于任何未知参数,也不依赖于 θ \theta θ。
(2) 对于给定的置信度 1 − α 1-\alpha 1−α,求出两个常数 k 1 , k 2 k_1,k_2 k1,k2使得 P { k 1 < Z < k 2 } = 1 − α P\{k_1<Z<k_2\}=1-\alpha P{k1<Z<k2}=1−α。
(3) k 1 < Z < k 2 ⟶ 改写 θ ^ 1 < θ < θ ^ 2 k_1<Z<k_2\overset{\text{改写}}{\Large{\longrightarrow}}\hat{\theta}_1<\theta<\hat{\theta}_2 k1<Z<k2⟶改写θ^1<θ<θ^2: ( θ ^ 1 , θ ^ 2 ) \left(\hat{\theta}_1,\hat{\theta}_2\right) (θ^1,θ^2)是置信度为 1 − α 1-\alpha 1−α的置信区间。
(4) 根据样本值计算 θ ^ 1 , θ ^ 2 \hat{\theta}_1,\hat{\theta}_2 θ^1,θ^2的具体值。
例 设 X ~ N ( μ , σ 2 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}X\td N(\mu,\sigma^2) X~N(μ,σ2), σ 2 \sigma^2 σ2已知, μ \mu μ未知,求参数 μ \mu μ的置信度为 1 − α 1-\alpha 1−α的置信区间。
解:取枢轴量 U = X ‾ − μ σ / n ~ N ( 0 , 1 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}U=\cfrac{\overline{X}-\mu}{\sigma/\sqrt{n}}\td N(0,1) U=σ/nX−μ~N(0,1),可以看出 N ( 0 , 1 ) N(0,1) N(0,1)不依赖任何参数。
现在要找到 k 1 , k 2 k_1,k_2 k1,k2使得 P { k 1 < U < k 2 } = 1 − α P\left\{k_1<U<k_2\right\}=1-\alpha P{k1<U<k2}=1−α,一般取 k 1 = − u α / 2 k_1=-u_{\alpha/2} k1=−uα/2, k 2 = u α / 2 k_2=u_{\alpha/2} k2=uα/2。注意到 − u α / 2 = u 1 − α / 2 -u_{\alpha/2}=u_{1-\alpha/2} −uα/2=u1−α/2,我们有 P { k 1 < U < k 2 } = 1 − P { U ≥ k 2 } − P { U ≤ k 1 } = 1 − α 2 − ( 1 − P { U > k 1 } ) = 1 − α 2 − [ 1 − ( 1 − α 2 ) ] = α \begin{aligned} P\{k_1<U<k_2\}&=1-P\{U\ge k_2\}-P\{U\le k_1\}\\ &=1-\frac{\alpha}{2}-\left(1-P\left\{U>k_1\right\}\right)\\ &=1-\frac{\alpha}{2}-\left[1-\left(1-\frac{\alpha}{2}\right)\right]\\ &=\alpha \end{aligned} P{k1<U<k2}=1−P{U≥k2}−P{U≤k1}=1−2α−(1−P{U>k1})=1−2α−[1−(1−2α)]=α
既然 P { − u α / 2 < X ‾ − μ σ / n < u α / 2 } = 1 − α P\left\{-u_{\alpha/2}<\cfrac{\overline{X}-\mu}{\sigma/\sqrt{n}}<u_{\alpha/2}\right\}=1-\alpha P{−uα/2<σ/nX−μ<uα/2}=1−α,那么 P { − n σ u α / 2 < X ‾ − μ < n σ u α / 2 } = 1 − α P { X ‾ − n σ u α / 2 < μ < X ‾ + n σ u α / 2 } = 1 − α \begin{aligned} P\left\{-\frac{\sqrt{n}}{\sigma}u_{\alpha/2}<\overline{X}-\mu<\frac{\sqrt{n}}{\sigma}u_{\alpha/2}\right\}&=1-\alpha\\ P\left\{\overline{X}-\frac{\sqrt{n}}{\sigma}u_{\alpha/2}<\mu<\overline{X}+\frac{\sqrt{n}}{\sigma}u_{\alpha/2}\right\}&=1-\alpha \end{aligned} P{−σnuα/2<X−μ<σnuα/2}P{X−σnuα/2<μ<X+σnuα/2}=1−α=1−α于是得 μ \mu μ的置信度为 1 − α 1-\alpha 1−α的置信区间为 ( X ‾ − n σ u α / 2 , X ‾ + n σ u α / 2 ) \left(\overline{X}-\frac{\sqrt{n}}{\sigma}u_{\alpha/2},\overline{X}+\frac{\sqrt{n}}{\sigma}u_{\alpha/2}\right) (X−σnuα/2,X+σnuα/2)。
其实,选取枢轴量的过程就是从 X X X的分布中剔除参数 θ \theta θ的影响的过程。 X X X的分布受 θ \theta θ影响,我们就需要消除这种影响,所以我们提出统计量 Z Z Z,它的分布是完全确定的,只有这样我们才能确定参数 k 1 , k 2 k_1,k_2 k1,k2。如果 X X X的分布不是确定的,那么我们很难求出置信区间。
2. 单侧区间估计
P { θ ‾ ( X 1 , X 2 , ⋯ , X n ) < θ } = 1 − α ⟹ ( θ ‾ , + ∞ ) P\left\{\underline{\theta}(X_1,X_2,\cdots,X_n)<\theta\right\}=1-\alpha\implies\left(\underline{\theta},+\infty\right) P{θ(X1,X2,⋯,Xn)<θ}=1−α⟹(θ,+∞)是 θ \theta θ的置信度为 1 − α 1-\alpha 1−α的单侧置信区间, θ ‾ \underline{\theta} θ为置信下界;
P { θ < θ ‾ ( X 1 , X 2 , ⋯ , X n ) } = 1 − α ⟹ ( − ∞ , θ ‾ ) P\left\{\theta<\overline{\theta}(X_1,X_2,\cdots,X_n)\right\}=1-\alpha\implies\left(-\infty,\overline{\theta}\right) P{θ<θ(X1,X2,⋯,Xn)}=1−α⟹(−∞,θ)是 θ \theta θ的置信度为 1 − α 1-\alpha 1−α的单侧置信区间, θ ‾ \overline{\theta} θ为置信上界。
即: ( θ ‾ , + ∞ ) \left(\underline{\theta},+\infty\right) (θ,+∞)包含 θ \theta θ的概率为 1 − α 1-\alpha 1−α, ( − ∞ , θ ‾ ) \left(-\infty,\overline{\theta}\right) (−∞,θ)包含 θ \theta θ的概率为 1 − α 1-\alpha 1−α。
在置信度 1 − α 1-\alpha 1−α给定的情况下,置信下界越大越好,置信上界越小越好。
四、正态总体参数的区间估计
对于单个总体的情形,我们设 X ~ N ( μ , σ 2 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}X\td N(\mu,\sigma^2) X~N(μ,σ2);对于两个总体的情形,我们设 X ~ N ( μ 1 , σ 1 2 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}X\td N(\mu_1,\sigma_1^2) X~N(μ1,σ12), Y ~ N ( μ 2 , σ 2 2 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}Y\td N(\mu_2,\sigma_2^2) Y~N(μ2,σ22)。 X X X的样本容量为 n n n,样本方差为 S X 2 S_X^2 SX2; Y Y Y的样本容量为 m m m,样本方差为 S Y 2 S_Y^2 SY2。
下面是单个总体的情形( X ~ N ( μ , σ 2 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}X\td N(\mu,\sigma^2) X~N(μ,σ2))。
σ 2 已知,考察 μ \color{dodgerblue}\sigma^2\text{已知,考察}\mu σ2已知,考察μ
枢轴量 U = n ( X ‾ − μ ) σ ~ N ( 0 , 1 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}U=\cfrac{\sqrt{n}\left(\overline{X}-\mu\right)}{\sigma}\td N(0,1) U=σn(X−μ)~N(0,1)
注意 P { − u α / 2 < U < u α / 2 } = 1 − α P\left\{-u_{\alpha/2}<U<u_{\alpha/2}\right\}=1-\alpha P{−uα/2<U<uα/2}=1−α
P { U < u α } = 1 − α P\left\{U<u_\alpha\right\}=1-\alpha P{U<uα}=1−α
P { U > − u α } = 1 − α P\left\{U>-u_\alpha\right\}=1-\alpha P{U>−uα}=1−α
σ 2 未知,考察 μ \color{dodgerblue}\sigma^2\text{未知,考察}\mu σ2未知,考察μ
枢轴量 T = n ( X ‾ − μ ) S ~ t ( n − 1 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}T=\cfrac{\sqrt{n}\left(\overline{X}-\mu\right)}{S}\td t(n-1) T=Sn(X−μ)~t(n−1)
注意 P { − t α / 2 < T < t α / 2 } = 1 − α P\left\{-t_{\alpha/2}<T<t_{\alpha/2}\right\}=1-\alpha P{−tα/2<T<tα/2}=1−α
P { T < t α } = 1 − α P\left\{T<t_\alpha\right\}=1-\alpha P{T<tα}=1−α
P { T > − t α } = 1 − α P\left\{T>-t_\alpha\right\}=1-\alpha P{T>−tα}=1−α
μ 已知,考察 σ 2 \color{dodgerblue}\mu\text{已知,考察}\sigma^2 μ已知,考察σ2
枢轴量 χ 2 = ∑ i = 1 n ( X i − μ ) 2 σ 2 ~ χ 2 ( n ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}\chi^2=\cfrac{\sum\limits_{i=1}^n{\left(X_i-\mu\right)}^2}{\sigma^2}\td\chi^2(n) χ2=σ2i=1∑n(Xi−μ)2~χ2(n)
μ 未知,考察 σ 2 \color{dodgerblue}\mu\text{未知,考察}\sigma^2 μ未知,考察σ2
枢轴量 χ 2 = ∑ i = 1 n ( X i − X ‾ ) 2 σ 2 = ( n − 1 ) S 2 σ 2 ~ χ 2 ( n − 1 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}\chi^2=\cfrac{\sum\limits_{i=1}^n{\left(X_i-\overline{X}\right)}^2}{\sigma^2}=\cfrac{(n-1)S^2}{\sigma^2}\td\chi^2(n-1) χ2=σ2i=1∑n(Xi−X)2=σ2(n−1)S2~χ2(n−1)
注意 P { χ 2 > χ α / 2 2 ( n − 1 ) } = α 2 P\left\{\chi^2>\chi^2_{\alpha/2}(n-1)\right\}=\frac{\alpha}{2} P{χ2>χα/22(n−1)}=2α, P { χ 2 > χ 1 − α / 2 2 ( n − 1 ) } = 1 − α 2 P\left\{\chi^2>\chi^2_{1-\alpha/2}(n-1)\right\}=1-\frac{\alpha}{2} P{χ2>χ1−α/22(n−1)}=1−2α,故 P { χ 1 − α / 2 2 ( n − 1 ) < χ 2 < χ α / 2 2 ( n − 1 ) } = 1 − α P\{\chi^2_{1-\alpha/2}(n-1)<\chi^2<\chi^2_{\alpha/2}(n-1)\}=1-\alpha P{χ1−α/22(n−1)<χ2<χα/22(n−1)}=1−α。
P { χ 2 < χ α 2 ( n − 1 ) } = 1 − α P\left\{\chi^2<\chi^2_{\alpha}(n-1)\right\}=1-\alpha P{χ2<χα2(n−1)}=1−α
P { χ 2 > χ 1 − α 2 ( n − 1 ) } = 1 − α P\left\{\chi^2>\chi^2_{1-\alpha}(n-1)\right\}=1-\alpha P{χ2>χ1−α2(n−1)}=1−α
下面是两个总体的情形( X ~ N ( μ 1 , σ 1 2 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}X\td N(\mu_1,\sigma_1^2) X~N(μ1,σ12), Y ~ N ( μ 2 , σ 2 2 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}Y\td N(\mu_2,\sigma_2^2) Y~N(μ2,σ22))。
σ 1 2 , σ 2 2 已知,考察 μ 1 − μ 2 \color{dodgerblue}\sigma_1^2,\sigma_2^2\text{已知,考察}\mu_1-\mu_2 σ12,σ22已知,考察μ1−μ2
枢轴量 U = ( X ‾ − Y ‾ ) − ( μ 1 − μ 2 ) σ 1 2 n + σ 2 2 m ~ N ( 0 , 1 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}U=\cfrac{\left(\overline{X}-\overline{Y}\right)-(\mu_1-\mu_2)}{\sqrt{\frac{\sigma_1^2}{n}+\frac{\sigma_2^2}{m}}}\td N(0,1) U=nσ12+mσ22(X−Y)−(μ1−μ2)~N(0,1)
注意 D ( X ‾ − Y ‾ ) = σ 1 2 n + σ 2 2 m D\left(\overline{X}-\overline{Y}\right)=\frac{\sigma_1^2}{n}+\frac{\sigma_2^2}{m} D(X−Y)=nσ12+mσ22。
σ 1 2 = σ 2 2 未知,考察 μ 1 − μ 2 \color{dodgerblue}\sigma_1^2=\sigma_2^2\text{未知,考察}\mu_1-\mu_2 σ12=σ22未知,考察μ1−μ2
枢轴量 T = ( X ‾ − Y ‾ ) − ( μ 1 − μ 2 ) S W 1 n + 1 m ~ t ( n + m − 2 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}T=\cfrac{\left(\overline{X}-\overline{Y}\right)-(\mu_1-\mu_2)}{S_W\sqrt{\frac{1}{n}+\frac{1}{m}}}\td t(n+m-2) T=SWn1+m1(X−Y)−(μ1−μ2)~t(n+m−2),其中 S W = ( n − 1 ) S X 2 + ( m − 1 ) S Y 2 n + m − 2 S_W=\sqrt{\cfrac{(n-1)S_X^2+(m-1)S_Y^2}{n+m-2}} SW=n+m−2(n−1)SX2+(m−1)SY2
注意 U = ( X ‾ − Y ‾ ) − ( μ 1 − μ 2 ) σ 1 n + 1 m ~ N ( 0 , 1 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}U=\frac{\left(\overline{X}-\overline{Y}\right)-(\mu_1-\mu_2)}{\sigma\sqrt{\frac{1}{n}+\frac{1}{m}}}\td N(0,1) U=σn1+m1(X−Y)−(μ1−μ2)~N(0,1), V = ( n − 1 ) S X 2 + ( m − 1 ) S Y 2 σ 2 ~ χ 2 ( n + m − 2 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}V=\frac{(n-1)S_X^2+(m-1)S_Y^2}{\sigma^2}\td\chi^2(n+m-2) V=σ2(n−1)SX2+(m−1)SY2~χ2(n+m−2)。
μ 1 , μ 2 已知,考察 σ 1 2 σ 2 2 \color{dodgerblue}\mu_1,\mu_2\text{已知,考察}\frac{\sigma_1^2}{\sigma_2^2} μ1,μ2已知,考察σ22σ12
枢轴量 F = ∑ i = 1 n ( X i − μ 1 ) 2 σ 1 2 / n ∑ j = 1 m ( Y j − μ 2 ) 2 σ 2 2 / m = σ 2 2 σ 1 2 m ∑ i = 1 n ( X i − μ 1 ) 2 n ∑ j = 1 m ( Y j − μ 2 ) 2 ~ F ( n , m ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}F=\cfrac{\left.\sum\limits_{i=1}^n\cfrac{{(X_i-\mu_1)}^2}{\sigma_1^2}\right/n}{\left.\sum\limits_{j=1}^m\cfrac{{(Y_j-\mu_2)}^2}{\sigma_2^2}\right/m}=\cfrac{\sigma_2^2}{\sigma_1^2}\cfrac{m\sum\limits_{i=1}^n{(X_i-\mu_1)}^2}{n\sum\limits_{j=1}^m{(Y_j-\mu_2)}^2}\td F(n,m) F=j=1∑mσ22(Yj−μ2)2/mi=1∑nσ12(Xi−μ1)2/n=σ12σ22nj=1∑m(Yj−μ2)2mi=1∑n(Xi−μ1)2~F(n,m)
μ 1 , μ 2 未知,考察 σ 1 2 σ 2 2 \color{dodgerblue}\mu_1,\mu_2\text{未知,考察}\frac{\sigma_1^2}{\sigma_2^2} μ1,μ2未知,考察σ22σ12
枢轴量 F = σ 2 2 σ 1 2 S X 2 S Y 2 ~ F ( n − 1 , m − 1 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}F=\cfrac{\sigma_2^2}{\sigma_1^2}\cfrac{S_X^2}{S_Y^2}\td F(n-1,m-1) F=σ12σ22SY2SX2~F(n−1,m−1)
注意 P { F > F α / 2 ( n − 1 , m − 1 ) } = α 2 P\left\{F>F_{\alpha/2}(n-1,m-1)\right\}=\frac{\alpha}{2} P{F>Fα/2(n−1,m−1)}=2α, P { F > F 1 − α / 2 ( n − 1 , m − 1 ) } = 1 − α 2 P\left\{F>F_{1-\alpha/2}(n-1,m-1)\right\}=1-\frac{\alpha}{2} P{F>F1−α/2(n−1,m−1)}=1−2α,故 P { F 1 − α / 2 ( n − 1 , m − 1 ) < F < F α / 2 ( n − 1 , m − 1 ) } = 1 − α P\{F_{1-\alpha/2}(n-1,m-1)<F<F_{\alpha/2}(n-1,m-1)\}=1-\alpha P{F1−α/2(n−1,m−1)<F<Fα/2(n−1,m−1)}=1−α。
P { F < F α ( n − 1 , m − 1 ) } = 1 − α P\left\{F<F_{\alpha}(n-1,m-1)\right\}=1-\alpha P{F<Fα(n−1,m−1)}=1−α
P { F > F 1 − α ( n − 1 , m − 1 ) } = 1 − α P\left\{F>F_{1-\alpha}(n-1,m-1)\right\}=1-\alpha P{F>F1−α(n−1,m−1)}=1−α
t t t分布和标准正态分布 N ( 0 , 1 ) N(0,1) N(0,1)类似,概率密度曲线都是关于 x = 0 x=0 x=0对称的, u 1 − α = − u α u_{1-\alpha}=-u_\alpha u1−α=−uα, t 1 − α ( n ) = − t α ( n ) t_{1-\alpha}(n)=-t_\alpha(n) t1−α(n)=−tα(n);
F F F分布和 χ 2 \chi^2 χ2分布类似,概率密度都只在 x > 0 x>0 x>0时为正。
不论 X X X服从何分布,都满足 P { q 1 − α / 2 < X < q α / 2 } = 1 − α P\{q_{1-\alpha/2}<X<q_{\alpha/2}\}=1-\alpha P{q1−α/2<X<qα/2}=1−α,其中 q α q_{\alpha} qα表示 X X X服从的分布的上侧 α \alpha α分位数。
关于自由度是多少,可以这么考虑:如果总体均值 μ \mu μ已知,那么自由度就是样本容量;如果总体均值 μ \mu μ未知,而用样本均值 X ‾ \overline{X} X代替的话,就要损失一个自由度。对于检验样本均值差时所用的 t t t分布,它的自由度是二者的自由度之和。
这篇关于【概率论】期末复习笔记:参数估计的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!