首页 > 其他 > 详细

深度学习之使?重复元素的?络(VGG)

时间:2020-03-16 23:19:20      阅读:80      评论:0      收藏:0      [点我收藏+]

AlexNet在LeNet的基础上增加了3个卷积层。但AlexNet作者对它们的卷积窗?、输出通道数和构造顺序均做了?量的调整。虽然AlexNet指明了深度卷积神经?络可以取得出?的结果,但并没有提供简单的规则以指导后来的研究者如何设计新的?络。

VGG,它的名字来源于论?作者所在的实验室Visual Geometry Group。VGG提出了可以通过重复使?简单的基础块来构建深度模型的思路。

一、VGG块

VGG块的组成规律是:连续使?数个相同的填充为1、窗?形状为 的卷积层后接上?个步幅为2、窗?形状为 的最?池化层。卷积层保持输?的?和宽不变,?池化层则对其减半。我们使? vgg_block 函数来实现这个基础的VGG块,它可以指定卷积层的数量和输?输出通道数。

二、VGG网络

与AlexNet和LeNet?样,VGG?络由卷积层模块后接全连接层模块构成。卷积层模块串联数个 vgg_block ,其超参数由变量 conv_arch 定义。该变量指定了每个VGG块?卷积层个数和输?输
出通道数。全连接模块则跟AlexNet中的?样。

因为每个卷积层的窗????样,所以每层的模型参数尺?和计算复杂
度与输??、输?宽、输?通道数和输出通道数的乘积成正?。VGG这种?和宽减半以及通道翻倍的设计使得多数卷积层都有相同的模型参数尺?和计算复杂度。

参考博客:https://zh.d2l.ai/chapter_convolutional-neural-networks/vgg.html

深度学习之使?重复元素的?络(VGG)

原文:https://www.cnblogs.com/somedayLi/p/12507510.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!