Best Linear Unbiased Estimator

Linear Regression Model#模型设定如下

(1){Y=XTβ+eE(e|X)=0(2){E(Y2)<E(X2)<E(XXT)O

Least Squares Estimator#矩阵形式的情形

β^(XTX)1(XTY)

Expectation of LS Estimator

若样本是独立同分布的,则有

E[YiX1,,Xn]=E[YiXi]=XiTβ

从而有(需要用到 E[eX]=0

E[YX]=[E[YiX]]=[XiTβ]=Xβ

参数估计量的条件期望为

E[β^X]=E[(XTX)1XTYX]=(XTX)1XTE[YX]=(XTX)1XTXβ=β

If (X,e) have a joint normal distribution[1],根据期望迭代法则有

E(β)=E[E[β^X]X]=E[βX]=β

Variance of LS Estimator

参数估计量的条件方差为

Var[β^X]=Var[(XTX)1XTY|X]=(XTX)1XTVar[YX]X(XTX)1=(XTX)1XTVar[Xβ+eX]X(XTX)1=(XTX)1XTVar[e|X]X(XTX)1=(XTX)1XTΩX(XTX)1

特别地,若误差项满足同方差(homoskedastic)假设,即

Ω=Var[e|X]=σ2In

则参数估计量的条件方差为

Var[β^X]=(XTX)1σ2

Gauss-Markov Theorem Take the homoskedastic linear regression model. If β~ is an linear unbiased estimator of β then

Var[β~X](XTX)1σ2

即 Least Squares Estimator 是所有线性无偏估计量中条件方差最小的。

然而,同方差假设在实践中几乎不可能满足;即使满足, σ2 也是未知参数,无法用于计算参数估计量的标准误(SE[β^X])用于统计推断。因此,有必要构建 σ2 的估计量和非同方差假设下参数估计量的条件方差。

👉 Homoskedasticity and Heteroskedasticity

基本假设与模型性质

序号 假设 表达式
线性模型 Y=Xβ+e
零条件均值 E[eX]=0
随机抽样
解释变量不完全共线
误差项满足同方差假设 Var[eX]=σ2In
误差项服从正态分布 eXN(0,σ2In)
Tip

①-⑤称为 Gauss–Markov assumptions
①-⑥称为 classical linear model assumptions

①②构成了 Linear CEF Model ,③保证了样本独立同分布,④保证了参数估计量有数值解,①-④即可得出无偏性。⑤可得出参数估计量的理想条件方差但并不现实,因此有必要使用各种稳健标准误。⑥用于统计推断但直接假设缺乏说服力,最好借助中心极限定理和渐进理论。

flowchart LR
    统计推断-->标准误
    统计推断-->正态分布
    标准误--同方差假设-->简单标准误
    标准误--异方差假设-->稳健标准误
    正态分布-->大胆假设
    正态分布-->渐进理论
Quote

The CLM assumptions are very strong, and a primary focus in theoretical and applied econometrics has been to conduct inference using OLS in a variety of settings – cross-sectional data, time series data, panel data, and data with a spatial structure – while imposing few assumptions. It is very difficult to get anywhere without relying on asymptotics. Therefore, we replace the CLM assumptions and rely on application of the law of large numbers and central limit theorem.(Wooldridge,2023)

渐进性质


  1. 这是一个充分不必要条件;如果 X 服从离散型分布,β^ 的期望和方差可能不存在。 ↩︎