岭回归

加了罚项之后多项式回归怎么完成呢?先从加了罚项的线性回归说起。

1 最小二乘法

回忆一下,数据集上的经验误差函数为:

之前是通过最小二乘法来完成线性回归,也就是通过求该经验误差函数的最小值来得到

2 岭回归

现在我们需要增加罚项,也就是在之前的优化目标基础上加入罚项作为条件:

在数学中,这就是求解有条件的极值,可以通过以及拉格朗日乘数法的 KKT 条件得到拉格朗日函数,对该拉格朗日函数求极值相当于求解上述的条件极值,从而得到

这种增加了罚项之后的线性回归称为 岭回归(Ridge Regression)。

练习题 如果罚项为,即有:

那么这是岭回归吗?

不是 是。两个条件是一样的,假设,那么:

同样的,对应的是:

在二维的情况下,都是相当于将点限制在圆内:

关注马同学
马同学高等数学
微信公众号:matongxue314