首页 > 其他 > 详细

神经网络训练过程

时间:2017-07-25 23:34:24      阅读:296      评论:0      收藏:0      [点我收藏+]

 技术分享

Cost Function:

技术分享

 前向传播(Forward propagation)

技术分享

反向传播(Back propagation)

 对于反向传播算法最直观的表示就是对于每个节点都计算这样一项(误差项):

技术分享

技术分享

计算完每个节点的误差之后我们便可以得到损失函数对于所有参数的偏导数

技术分享

注:这里忽略了正则化项。(aj看成xj

直观表示:

技术分享

 

 

 算法流程:

 技术分享

Δ为所有样本的误差和矩阵。

 

 随机初始化参数

    对于所有的参数我们必须初始化它们的值,而且它们的初始值不能设置成一样,比如都设置成0或1。如果设置成一样那么所有的a,δ,偏导,所有更新后参数等都会相等。即所有神经元的功能都相等,造成了高度冗余。所以我们必须随机化初始参数。

例如:

 技术分享

表示初始化了一个10*11的参数矩阵,且每个参数都属于[-ε, ε]

 

神经网络训练过程

原文:http://www.cnblogs.com/J-K-Guo/p/7236985.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!