首页 > 其他 > 详细

莫烦pytorch学习笔记1

时间:2020-06-10 15:17:03      阅读:41      评论:0      收藏:0      [点我收藏+]

入门

人工神经网络靠正向、反向传播,优化数学模型。

神经网络

输入层:直接接受传入的信息

输出层:输出的结果,通过结果看出神经网络对事物的认知

隐藏层:输入和输出之间各神经元组成的各个层面

技术分享图片

如何训练

  • 准备很多数据
  • 训练(通过对比错误和正确差别,反向传播,改变一点点,通过改进的神经网络可以向正确的方向发展)

激活/刺激函数(activation function)

激活一些神经元,传递的信息是对神经元最有价值的信息,比如传入一只猫的图片,部分神经元被激活,得出一个输出(比如判断结果是一条狗)

技术分享图片

此时另一部分神经元被激活,容易被激活的迟钝,另一部分敏感起来,说明一些参数再被改变,逐渐调整后,得出正确的结果,是一只猫

技术分享图片

梯度下降

优化问题--optimization

  • newton‘s method
  • least squares method
  • gradient decent (常用)

技术分享图片(wx-y)到(w-0)不是等号,只是一个推导。可以看到梯度下降到最低的地方cost最小

但是往往,w不止一个,两个是一个三维的,超过3个w很难画出来

简化版的只要找到梯度躺平的点, 但是可能有局部最优,全局最优。大部分时候是局部最优

技术分享图片

黑盒

神经网络是一个黑盒:

输入-->加工(黑盒)-->输出

类比手电筒照亮黑盒子的过程

  • 输入层-隐藏层1-隐藏层2-隐藏层3-输出层 (隐藏层123此时为黑盒
  • 输入层-隐藏层2-隐藏层3-输出层(此时输入层+隐藏层1为新的输入端,隐藏层23位新的黑盒
  • 。。。

第一个输入层当做features,第二个输入层当做代表特征feature representations

一个例子

技术分享图片

将输出层拆掉,可以看到一张数字的3个代表特征,通过右边那个图,可以看出一个分布,进而对输入的手写数字图片做一个区分。落在相同区域的数字认定为某个数字

技术分享图片

应用:迁移学习

技术分享图片

去掉输出层并且套上另外一个神经网络的输入层(比如这里已经获取关于右边词汇分类的代表特征,作为下一个神经网络的输入,可以进一步判断各个物品的价值)

技术分享图片

莫烦pytorch学习笔记1

原文:https://www.cnblogs.com/lonelyisland/p/13085221.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!