本文主要是介绍Kalman Filter与RLS的区别,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
1.估计准则
常用的估计准则包括:
- 无偏估计:即假设状态的估计值与真实值的平均值相等。
- 最小二乘估计:不考虑数据的统计特性,如期望,方差等,直接用最小二乘法得到最优估计。
- 误差方差最小:在满足最小二乘估计的同时,使得估计的误差方差最小。这一约束可以通过一系列等价的推导获得,前提是要事先知道测量数据噪声的方差。
简单来说就是,满足误差方差最小必满足误差平方和最小,反之不成立。而无偏估计是最基本假设。
原文链接:https://blog.csdn.net/qinruiyan/article/details/50793114
2.古典最小二乘法(Ordinary Least Square, OLS)
这种方法使用估计值和真值的误差的平方和作为cost function,然后cost function对估计值求偏导就能得到估计值的无偏估计。比较简单,也比较好理解其中的最小二乘LS思想。
3.加权最小二乘估计(Weighted Least Square, WLS)
在古典最小二乘中,假设了每一次测量的权重相同,但事实上这样并不合理。假如一个估计值偏离真实值很远(或者是一个估计值不确定性很大),那么它对估计结果的影响就应该被削弱,反之影响应该加强。加权最小二乘就是做这样的事。
4.递推最小二乘估计(Recursive Least Square, RLS)
至
这篇关于Kalman Filter与RLS的区别的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!