- M-Estimation 是一类广泛估计函数,定义为所给数据上的最小和函数。最小二乘估计和极大似然估计都是 M 估计法。M 估计法由鲁棒的数据作为运行保证。
- 一般地,一个 M-Estimation 定义为一个估计函数为 0 的情况。这个估计函数经常是一些统计函数。如令一个由参数定义的极大似然函数为 0,因此一个极大似然估计值往往是一个能量函数取得极值的点。
M-Estimation
1 介绍
- M-Estimation 是一类广泛估计函数,定义为所给数据上的最小和函数。最小二乘估计和极大似然估计都是 M 估计法。M 估计法由鲁棒的数据作为运行保证。
- 一般地,一个 M-Estimation 定义为一个估计函数为 0 的情况。这个估计函数经常是一些统计函数。如令一个由参数定义的极大似然函数为 0,因此一个极大似然估计值往往是一个能量函数取得极值的点。
2 M 估计在最小二乘中的运用
2.1 最小二乘
考虑线性回归,βi,ε 均未知:
y=β0+β1x1+⋯+βkxk+ε, ε∼N(0,σ2)
写为矩阵表达式:
Y=Xβββ+εεεX=(x1,x2,...,xn)T=⎝⎜⎜⎜⎛x1Tx2T⋮xnT⎠⎟⎟⎟⎞
定义最小二乘误差 SE2,目的就是使这个误差最小:
SE2=SE2(βββ)=i=1∑n(yi−β0−β1xi1−⋯−βkxik)=∥Y−Xβββ∥2=YYT−2YTXβββ+βββTXTXβββ
由于误差避免,记 βββ 的估计值为 βββ^=(β^0,β^1,...,β^k)T,则 βββ 为下式的解:
∂βββ∂SE2(βββ)=0
得到:
XTY=XTXβββ⇒βββ=(XTX)−1XTY
会发现,经典的线性回归是将所有样本点赋相同的权重,并且作为 inliers 处理。然而实际中存在 outliers,则再使用此方法将会使回归结果存在较大误差。为此,引入加权最小二乘。
2.2 加权最小二乘(均方)估计
- 原理:给每个样本点不同的权重,使得 outliers 的权重较小,inliers 的权重较大。
目标函数:
Q=i=1∑n(yi−j=0∑kβjxij)2=i=1∑nei2, xi0=1
M 估计的基本思想是采用迭代加权最小二乘估计回归系数。根据前一次回归迭代残差来确定样本权重,目标函数改写为:
Q=i=1∑nρ(yi−j=0∑kβjxij)=i=1∑nρ(ei)
ρ 为影响函数,如 Huber 函数。令 Q 对 β 求偏导且导数为 0,有:
i=1∑nφ(yi−xiTβββ)xi=0
为使 M 估计更加鲁棒,在权重函数中引入鲁棒的尺度估计 s 使残差标准化为 ei/s。根据 Hampel 的方法,标准化残差为:
ui=sei=med(∣ei∣)0.6745ei
其中 med 表示中位数计算。于是:
i=1∑nφ(yi−xiTβββ)xi=i=1∑nφ(ui)xi=i=1∑nuiφ(ui)⋅uixi=i=1∑nWi⋅uixi=0
其中 Wi=φ(ui).ui 为样本 i 的权重。向量化后为:
XTW⋅u=XTW⋅e=0
有因为:
Y=Xβββ+e
带入前式得到:
XTWY=XTWXβββ⇒βββ^=(XTWX)−1XTWY
参考