本文主要是介绍详解统计信号处理之克拉美罗界,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
各种研究领域(包括无线定位方向)都会碰到参数估计的问题,这时常常会看到克拉美罗界 (Cramér–Rao bound) 这个东西。很多随机信号的书都会介绍什么是克拉美罗界,但初学者学起来往往很吃力,本文从直观上简单讨论一下克拉美罗界的各个方面。
什么是参数估计问题
假设一种最简单的情况:
一个物理量为,我们使用某种方式去观测它,观测值为
,由于存在噪声,此时
,
为高斯噪声,
。
这种情况下,我们自然会直接使用观测值去估计
,这时就会存在估计的误差,直观地理解,噪声的方差
越大,估计就可能越不准确。
为什么要讨论克拉美罗界
讨论克拉美罗界就是为了使用这个标准来衡量无偏估计量的性能。
采用上面的方式,使用去估计
,这个估计值会在真实值附近波动(看作随机变量)。我们需要使用一些标准来衡量这种估计的好坏,一个标准是估计值的平均,这里的这个估计量是无偏估计量。另一标准是这个估计值波动的剧烈程度,也就是方差。上面这个问题中,克拉美罗界就等于这个方差。
可是为什么不直接讨论方差而要去计算克拉美罗界呢,因为方差是针对某一种特定的估计量(或者理解为估计方式)而言的,在上面的例子中,方差是估计量的方差(
)。对于稍微复杂一点点的问题,对
的可以有各种不同的估计量,它们分别的方差是不同的。显然,对于无偏估计量而言,方差越小的估计方式性能越好,但是这个方差有一个下界,就是我们的克拉美罗界。
直观地理解克拉美罗界
克拉美罗界本身不关心具体的估计方式,只是去反映:利用已有信息所能估计参数的最好效果。
还是上面那个参数估计问题,当我们观察到的时候,我们可以知道真实值
的概率密度分布是以
为均值,
为方差的正态分布,即:
上图给出了两个似然函数的例子,直观地看,似然函数的“尖锐”性决定了我们估计位置参数的精度。这个“尖锐”性可以用对数似然函数峰值处的负的二阶导数来度量,即对数似然函数的曲率(对数似然函数就是在似然函数的基础山加一个自然对数,这样有利于计算)。计算过程我就不写了,有兴趣的可以自己算算,算完之后结果为:
,是噪声的方差的倒数,也就是噪声越小,对数似然函数越尖锐。
所以,可以这样理解,似然函数的“尖锐”程度,或者,符合似然函数分布的这组数据的方差,就是克拉美罗界。
不同的估计量(估计方式)是什么意思
让我们来分析一个稍微复杂一点点的参数估计问题:
一个物理量为,我们使用某种方式去观测它,观测值为
和
,这是两个不同时刻的观测结果,一样的高斯噪声
。
这种情况下,我们要估计,正常人可能会采用估计量
,即前后两个观测的平均,也有人可能觉得这样计算量有点大,于是总是直接使用
去估计
,也有人觉得第二个观测值可能会受到系统影响而不准确,他更相信前面的观察值,于是总采取这样的估计量
。这三个估计量都是无偏的:
估计量的方差为:
估计量的方差为:
估计量的方差为:
比较上面的三种估计量,第一种的方差最小,它的估计效果较好。实际上,如果第二个观测值真的不太准确,也就是后一个高斯噪声较大,这样的话也许第二个估计量就比较合适了。
因此,不同的考虑方式可以产生各种不同的估计算法,这些不同的估计量都是在真实值附近波动的随机变量(有的有偏,有的无偏),它们分别的方差也是不一样的,但是数学家们证明了:任何无偏估计量的方差必定大于等于克拉美罗界。
克拉美罗界的基本计算
我们假设这两次观察互相独立,仅受相同的高斯白噪声影响,那么根据已有的信息,真实值的似然函数为两个正态的概率密度分布相乘:(注意:pdf实际上应该再进行归一化处理,但是我们之后使用对数似然函数,乘不乘归一化系数都无所谓,对数之后变成了常数,求导的时候就没了)
与之前一样,可以计算出对数似然函数的二阶导数,得到结果为:。实际上,当观测数目为
的时候,这个值将会是
。也就是说,使用多个观测值的信息时,对数似然函数越“尖锐”。这个二阶导数(曲率)更一般的度量是(下面用
来表示要估计的参数
):
它度量了对数似然函数的平均曲率(很多情况下曲率与的值有关,取数学期望使得它仅为
的函数),被称为数据
的Fisher信息
,直观地理解,信息越多,下限越低,它具有信息测度的基本性质(非负的、独立观测的可加性)。一般来说,Fisher信息的倒数就是克拉美罗界了,任何无偏估计量
的方差满足:
大多情况下,这个不等式的右边(克拉美罗界)是的函数。
克拉美罗界的标准定义
(定理:Cramer-Rao下限----标量参数)
假定PDF 满足“正则”条件(对于所有的
):
其中数学期望是对 求取的。那么,任何无偏估计量
的方差必定满足:
其中导数是在的真值处计算的,数学期望是对
求取的。而且,对于某个函数
和
,当且仅当
时,对所有达到下限的无偏估计量就可以求得。这个估计量是
,它是MVU估计量(最小方差无偏估计),最小方差是
。
总结
估计一个参数,根据已有信息得到了似然函数(或者pdf),这个pdf的“尖锐”性,或者,符合似然函数分布的这组数据的方差,就是克拉美罗界,它可以通过对对数似然函数求二阶导再取倒数得到。克拉美罗界的计算不依赖具体的估计方式,它可以用来作为一个衡量估计方式好坏的标准,及估计量的方差越靠近克拉美罗界,效果越好。
https://en.wikipedia.org/wiki/Cramér–Rao_bound
(注:本文主要参考《统计信号处理基础-估计与检测理论》-国外电子与通信教材系列)
在参数估计和统计中,Cramer-Rao界限(Cramer-Rao bound, CRB)或者Cramer-Rao下界(CRLB),表示一个确定性参数的估计的方差下界。命名是为了纪念Harald Cramer和Calyampudi Radhakrishna Rao。这个界限也称为Cramer-Rao不等式或者信息不等式。
它的最简单形式是:任何无偏估计的方差至少大于Fisher信息的倒数。一个达到了下界的无偏估计被称为完全高效的(fully efficient)。这样的估计达到了所有无偏估计中的最小均方误差(MSE,mean square error),因此是最小方差无偏(MVU,minimum variance unbiased)估计。
给定偏倚,Cramer-Rao界限还可以用于确定有偏估计的界限。在一些情况下,有偏估计方法的结果可能方差和均方差都小于无偏估计的Cramer-Rao下界。
标量情形
标量的无偏情形
假设是一个位置确定性参数。我们需要从观察变量估计它。而它们满足一个概率密度函数。任何的无偏估计的方差的下界为Fisher信息的倒数:
其中Fisher信息定义为
其中 表示求期望。
无偏估计的效率描述估计的方差有多接近下限,定义为
显然有
标量的一般情形
更一般的情况是考虑参数的无偏估计。这里的无偏性理解为。这种情况下,方差的下界为
其中 表示 关于 的导数, 仍然是Fisher信息。
有偏估计的界限
考虑估计,设其偏倚,令。利用上式,任何期望为的无偏估计的方差都大于等于。于是
当 ,上式退化为无偏估计得方差界限。当估计 退化为常数(概率密度函数为脉冲函数),则方差退化为0。
从上式,利用标准分解可以推出有偏估计的均方误差下界为
注意,如果 ,那么上式右端的下界可能小于Cramer-Rao下界。例如,当 。
多元变量的情形
定义向量,它的概率密度函数为满足后面的两个正则化条件。Fisher信息矩阵是一个的矩阵,元素定义为
令为一个向量函数的估计,,记它的期望向量为。Cramer-Rao下界认为T(X)的协方差矩阵满足
其中
- 矩阵大于等于符号表示是一个半正定矩阵;
- 是雅克比矩阵,它的第个元素为。
当为的无偏估计(例如),则Cramer-Rao法则退化为
两个正则化条件
边界依赖两个关于和的弱正则化条件:
- Fisher信息矩阵总是存在。等价地说,对于所有,如果,则存在并且有限。
- 对的积分和对的微分可以交换顺序。也就是说,在下式右侧有限时,有
上述条件通常可以通过以下任意一个条件来确认:
- 函数在中有边界支持,并且边界不依赖于。
- 函数有有限的支持,连续可微,并且对于所有积分收敛。
标量情形的证明
假设是一个的无偏估计,且。目标是证明,对于所有,
令为随机变量,且概率密度函数为. 为统计量,且作为的估计。定义为概率密度函数关于的偏导数
可以发现, 的概率密度函数也是 。利用第二个正则化条件,可以得到 的期望为0。即
因为 ,由协方差定义式可以推出 。展开可以得到
由柯西-施瓦茨不等式可得
因此
参考文献
https://en.wikipedia.org/wiki/Cram%C3%A9r%E2%80%93Rao_bound#Regularity_conditions
作者: rubbninja
出处: http://www.cnblogs.com/rubbninja/
版权声明:本文版权归作者和博客园共有,转载请注明出处。
这篇关于详解统计信号处理之克拉美罗界的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!