首页 > Web开发 > 详细

吴恩达机器学习第5周Neural Networks(Cost Function and Backpropagation)

时间:2018-03-21 22:23:04      阅读:386      评论:0      收藏:0      [点我收藏+]

5.1 Cost Function

假设训练样本为:{(x1),y(1)),(x(2),y(2)),...(x(m),y(m))}

L  = total no.of layers in network

sL= no,of units(not counting bias unit) in layer L

K = number of output units/classes

技术分享图片如图所示的神经网络,L = 4,s1 = 3,s2 = 5,s3 = 5, s4 = 4

逻辑回归的代价函数:

            技术分享图片

神经网络的代价函数:

   技术分享图片

 

 5.2 反向传播算法 Backpropagation

 关于反向传播算法的一篇通俗的解释http://blog.csdn.net/shijing_0214/article/details/51923547

技术分享图片

 

 技术分享图片

 5.3 Training a neural network

 技术分享图片

隐藏层的单元数一般一样,隐藏层一般越多越好,但计算量会较大。

 

吴恩达机器学习第5周Neural Networks(Cost Function and Backpropagation)

原文:https://www.cnblogs.com/weiququ/p/8620107.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!