首页 > 编程语言 > 详细

反向传播算法推导过程(非常详细)

时间:2021-01-24 18:38:26      阅读:32      评论:0      收藏:0      [点我收藏+]

原地址:https://zhuanlan.zhihu.com/p/79657669

1. 前向传播

技术分享图片

假设 技术分享图片 为 技术分享图片 的矩阵(其中, 技术分享图片 为样本个数(batch size), 技术分享图片 为特征维数):

技术分享图片 与 技术分享图片 的维数为 技术分享图片 为 技术分享图片 的矩阵, 技术分享图片

技术分享图片 与 技术分享图片 的维数为 技术分享图片 为 技术分享图片 的矩阵, 技术分享图片

技术分享图片

技术分享图片 与 技术分享图片 的维数为 技术分享图片 为 技术分享图片 的矩阵, 技术分享图片

前向算法:

技术分享图片

假设输出为 技术分享图片 维,则 技术分享图片 为大小为 技术分享图片 的矩阵,根据MSE或CE准则可以求得 技术分享图片 ,对于回归问题与分类问题, 技术分享图片 的求解方法如下:

技术分享图片

  • 对于回归问题,对out直接计算损失,损失函数为MSE。 损失: 技术分享图片

技术分享图片

  • 对于分类问题,out后接softmax进行分类,然后使用CE(cross entropy)计算loss. 技术分享图片 一个样本对应的网络的输出 技术分享图片 是一个概率分布,而这个样本的标注 技术分享图片 一般为 技术分享图片 ,也可以看做一个概率分布(硬分布)。cross entropy可以看成是 技术分享图片 与 技术分享图片 之间的KL距离:

技术分享图片

  • 假设 技术分享图片 ,其中1为第 技术分享图片 个元素(索引从0开始),令 技术分享图片 .

损失: 技术分享图片 技术分享图片

KL距离(相对熵):是Kullback-Leibler Divergence的简称,也叫相对熵(Relative Entropy).它衡量的是相同事件空间里的两个概率分布的差异情况。其物理意义是:在相同事件空间里,概率分布 P(x) 对应的每个事件,若用概率分布 Q(x) 编码时,平均每个基本事件(符号)编码长度增加了多少比特。我们用 技术分享图片 表示KL距离,计算公式如下:技术分享图片 ,当两个概率分布完全相同时,即 P(X)=Q(X) ,其相对熵为0.

2.反向传播

技术分享图片 ,为了便于详细说明反向传播算法,假设 技术分享图片 为 技术分享图片 的向量, 技术分享图片 为 技术分享图片 的向量: 技术分享图片

所以, 技术分享图片

1) 损失 技术分享图片 对 技术分享图片 的导数:

技术分享图片

技术分享图片

即, 技术分享图片

2) 损失对偏置b的导数等于将 技术分享图片 的每一列加起来:

技术分享图片

3) 损失 技术分享图片 对 技术分享图片 的导数:

技术分享图片

即,

技术分享图片

技术分享图片

4) 损失 技术分享图片 对 技术分享图片 的导数:

技术分享图片

  • 技术分享图片 为sigmoid时, 技术分享图片

技术分享图片

  • 技术分享图片 为tanh时, 技术分享图片 .

技术分享图片

  • 技术分享图片 为relu时, 技术分享图片

技术分享图片

3. 梯度更新

对于不同算法 ,梯度更新方式如下: 技术分享图片

反向传播算法推导过程(非常详细)

原文:https://www.cnblogs.com/aabbcc/p/14321276.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!