首页 > 其他 > 详细

为什么l1和l2可以防止过拟合

时间:2020-10-16 20:32:23      阅读:61      评论:0      收藏:0      [点我收藏+]

为什么正则化的手段可以防止过拟合

随着训练过程的进行,模型复杂度增加,在training data上的error渐渐减小,但是在验证集上的error却反而渐渐增大——因为训练出来的网络过拟合了训练集,对训练集外的数据却不work。

简单的说就是在训练集上表现好,而在测试集上面表现不好

剩下的我觉得参考这篇bk,然后手推一遍还是挺好理解的

为什么l1和l2可以防止过拟合

原文:https://www.cnblogs.com/gaowenxingxing/p/13828447.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!