首页 > 其他 > 详细

机器学习 - 正则化为什么可以防止过拟合

时间:2020-12-23 19:19:49      阅读:34      评论:0      收藏:0      [点我收藏+]

正则化为什么可以防止过拟合

一个不一定正确的观点:

过拟合本质上是模型对于离群值过度敏感,最终拟合的函数过度拟合离群值。以下图为例,我们期望得到的拟合函数为黑色直线,而过拟合则会得到红色曲线。

技术分享图片

可以看出,过拟合函数在某些点波动很大,这里的波动大是因为离群值与正常值相差很大。一个函数波动大,反映到其导数上就是导数的范数很大。那么,通过抑制参数的范数大小,就能够避免函数过大的波动。我们以线性回归的正则化代价函数为例

\[J(\theta) = \frac{1}{2m}\sum_{i=1}^m(h_\theta(x^{(i)})-y^{(i)})^2 + \frac{\lambda}{2m}\sum_{j=1}^n\theta_j^2 \]

假设\(0 < \lambda_1 < \lambda_2\)最终都训练出\(J(\theta) = d\)的模型,由刚才的分析,\(\lambda_2\)对应的\(\theta_2\)的范数必须相对于\(\theta_1\)的范数更小,才能够得到\(J(\theta_2) = J(\theta_1) = d\)

这就是正则项能防止过拟合的原理

参考:
机器学习中使用正则化来防止过拟合是什么原理? - Jason Gu的回答 - 知乎

机器学习 - 正则化为什么可以防止过拟合

原文:https://www.cnblogs.com/popodynasty/p/14179495.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!