首页 > 其他 > 详细

Coursera台大机器学习课程笔记13 -- Regularization

时间:2015-06-30 10:02:19      阅读:152      评论:0      收藏:0      [点我收藏+]

      这一节讲的是正则化,在优化中一直会用到正则化项,上课的时候老师一句话代过,没有作过多的解释。听完这节课后,

才明白好大学和野鸡大学的区别有多大。总之,这是很有收获的一节课。

     首先介绍了为什么要正则化,简单说就是将复杂的模型用简单的模型进行表示,至于如何表示,这中间有一系列推导假设,很有创意。

     第二小节深入的解释了优化中拉格朗日乘子,提出了argument error的概念。关于乘子和正则化项的关系:乘子大,正则化项小,即C小,则模型越简单。

虽然有图,但听起来仍然十分的抽象。

    第三小节是关于正则化与VC理论的,更加抽象了,我没有听明白讲的是什么。。。

    第四小节讲了如何设计正则化项,三个原则。

    下节会讲如何选取乘子。

    参考:http://www.cnblogs.com/ymingjingr/p/4395596.html

Coursera台大机器学习课程笔记13 -- Regularization

原文:http://www.cnblogs.com/573177885qq/p/4609482.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!