本文主要是介绍【回归】回归分析中的假定:什么假定?为什么要满足?(为什么会违背?)违背假定的后果?怎样检验?如何改进?(未完),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
1. 回归方程的假定是什么?
大前提:回归分析模型是正确设立的,具有可解释的经济意义(即模型是通过研究经济理论、选择变量及函数、收集整理统计数据而建立的)。
(1)y 与 x 线性关系
(2)重复抽样中,x 是非随机的(固定的,因为“原因明确”),但 y 是随机的。
(3)对随机误差项 ξi 的假定:零均值、同方差、不相关(即不自相关)
Eξi=0;Cov(ξi,ξi)=σ^2;Cov(ξi,ξj)=0(i≠j)
(4)随机误差项满足正态分布, ξi ~ N(0, σ^2)
(5)xi 与 ξi 间不相关(即 xi 是外生性变量),Cov(xi,ξi)=0
(6)对于多元还需要:不存在完全的多重共线性
1.1 其中,高斯-马尔可夫条件是什么?
该条件即上述的假定(3),源于高斯-马尔可夫定理,首先说这个定理。
【高斯-马尔可夫定理】在给定经典线性回归的假定下,回归系数的最佳线性无偏估计量就是最小二乘估计(OLS)量。称此时的 OLS 量满足BLUE(Best Linear Unbiased Estimators 最佳线性无偏估计)性质,最佳指方差最小(即估计量的有效性)。
这个定理有什么用?它给我们提供了一个特定条件下寻找BLUE估计量的方法,也就是说如果一个线性回归方程满足某些假定,此时的最小二乘估计量就是最佳线性无偏估计量,不可能找到一个更优的线性无偏估计量,因为这已经是方差最小的情况了。所以我们喜欢研究那些满足该定理中的假定的问题。
这个定理中的内容是什么(红色标注内容)?
假设(线性方程)
。(i = 1……n
这篇关于【回归】回归分析中的假定:什么假定?为什么要满足?(为什么会违背?)违背假定的后果?怎样检验?如何改进?(未完)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!