首页 > 其他 > 详细

CV3——学习笔记-实战项目(上):如何搭建和训练一个深度学习网络

时间:2019-08-17 10:52:34      阅读:114      评论:0      收藏:0      [点我收藏+]

http://www.mooc.ai/course/353/learn?lessonid=2289&groupId=0#lesson/2289

1、AlexNet, VGGNet, GoogleNet, ResNet

https://adeshpande3.github.io/adeshpande3.github.io/The-9-Deep-Learning-Papers-You-Need-To-Know-About.html

1.1 AlexNet:

图像输入224*224*3。11*11滤波器。2个通道,用于硬件实现。其中一个通道是5*5的。

技术分享图片

1.2 VGGNet

很多变体。VGG16/19。更少参数。

feature map的尺寸不断减小,但 是个数增多。因此可以说空间维 度减少,但是深度增加。

技术分享图片

1.3 GoogleNet

更加复杂、更深 超过100层。空间上横向扩展代替纵向加深。

去掉全连接层,少了很多参数。

1*1卷积层,降维用。

技术分享图片

技术分享图片

 1.4 ResNet

精度超过人类。

学习的是期望的输出与输入之间的残差。

引入残差后的映射对输出的变化更敏感。

输出变化对权重的调整作用更大,所以效果更好。残差的思想都是去掉 相同的主体部分,从而突出微小的变化。

技术分享图片

技术分享图片

2、训练技巧,防止过拟合

2.1 数据增强(Data augmentation):

水平翻转, 随机裁剪和平移变换,颜色、光照变换。适应不同条件。

技术分享图片

2.2 Dropout

把一些层的输出丢掉,随机不激活。

技术分享图片

在训练阶段中,将假设的投影作为修改的激活函数a(h), D是伯努利分布变量:https://yq.aliyun.com/articles/68901

 技术分享图片

2.3 其他有助于训练的手段:

• 1.L1,L2正则化

• 2.Batch Normalization

每次进行SGD的时候,在卷积之后(Wx+b)之后进行归一化,将输出变成均值为0,方差接近1。按照batch,每一维度减去自身均值, 再除以自身标准差。

优点:

1,使用更高的学习率

2,移除或者使用较低的dropout

3,降低L2权重衰减系数

3、caffe

http://caffe.berkeleyvision.org/tutorial/

技术分享图片

技术分享图片

https://nbviewer.jupyter.org/github/BVLC/caffe/blob/master/examples/00-classification.ipynb

 

CV3——学习笔记-实战项目(上):如何搭建和训练一个深度学习网络

原文:https://www.cnblogs.com/wxl845235800/p/11367174.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!