首页 > 其他 > 详细

coursera-斯坦福-机器学习-吴恩达-笔记week4

时间:2018-09-28 11:40:37      阅读:239      评论:0      收藏:0      [点我收藏+]

1 神经网络的提出

线性回归和逻辑回归能很好的解决特征变量较少的问题,但对于变量数量增加的复杂非线性问题,单纯增加二次项和三次项等特征项的方法计算代价太高。

2 神经网络算法

2.1 神经元

模拟神经元的模型:

技术分享图片
模型的参数即模型的去权重。

2.2 神经网络

如图是一个三层神经网络模型,第一层为输入层,第二层为隐藏层,第三层为输出层。每条边上有一个权值θ。

技术分享图片

ai(j):第j层单元i的“激励”

θ(j):第j层到第j+1层单元的权值矩阵。

若第j层单元数为sj,第j+1层单元数为sj+1,则θ(j)?sj+1?(sj+1)

在bp神经网络中,我们使用sigmoid函数作为激励函数。即  技术分享图片,也就是我们逻辑回归中使用的函数。

记住:z(j)=Θ(j?1)a(j?1)然后:a(j)=g(z(j))。

前向传播:从输入层到隐藏层再到输出层依次计算激励的过程叫前向传播。

技术分享图片

3 应用

3.1 and 、 or、非运算

技术分享图片

技术分享图片

 

技术分享图片

3.2 组合

三个式子合起来,可以求更复杂的线性函数(X1 xnor  X2)。

技术分享图片

可以理解为:

通过组合不同计算功能的神经元,我们可以使神经网络表示复杂的表达式。——CREAT TANG

3.3 多分类

 

coursera-斯坦福-机器学习-吴恩达-笔记week4

原文:https://www.cnblogs.com/icode-girl/p/9715805.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!