首页 > 其他 > 详细

深度学习基本概念简介

时间:2021-05-26 14:48:34      阅读:21      评论:0      收藏:0      [点我收藏+]

深度学习基本概念简介

1. 从线性模型说开去

Linear models 存在的问题:y与x始终呈线性关系(Model Bias:模型偏差)

技术分享图片

我们需要更加复杂的模型(如何拟合出上图红色线类似的形状)

技术分享图片

constant表示常数,当x1的值达到某一threshold(阈值)的时候,set1的分段值会发生改变,即产生斜坡。

技术分享图片

0+1=red(1)

0+1+2= red(2)

0+1+2+3 = red(3)

red(1)、red(2)和red(3)分别表示上图中红线的三个分段

所有的分段线性曲线(Piecewise Linear Curves)都可以用常数加上蓝色函数实现。(分段线性曲线的转折越多,对应蓝色函数的分段也越多)

如果不是分段线性曲线,可以用点分割的方式转换成分段线性曲线。

技术分享图片

2-1. 如何表示蓝色函数

(1)Sigmoid函数作为激活函数

技术分享图片

(2)调整b,w,c使得产生的sigmoid function不断地逼近真实的蓝色函数

技术分享图片

技术分享图片

(3)新模型:加入更多的特征

技术分享图片

技术分享图片

(4)r的线性代数表示

技术分享图片

(5) r通过sigmoid函数得到ai

技术分享图片

(6)最后ai与常数ci相乘的时候重点注意ci需要转置。

技术分享图片

x表示feature

WbcTb都表示未知参数

(7)将以上所有参数竖直排,形成参数矩阵

技术分享图片

2-2 求新模型的最优解

θ* 表示最优解,与之前机器学习的步骤相同,随机挑选θ0

倒三角形表示Gradient

技术分享图片

将数据量为N的数据集随机分为若干个batch(B)小数据组,每个batch算出的Loss都用来更新参数(并非直接使用N对应的Loss)

技术分享图片

每更新一次参数叫做Update

将所有的batch都看过一遍叫做一个epoch

为什么要将hard sigmoid换成soft sigmoid

其实不用换,hard sigmoid可以由两个ReLU函数叠加

S型函数转变为线性整流函数(激活函数:Activation 的选择)

技术分享图片

技术分享图片

使用ReLU作为激活函数进行实验

技术分享图片

对模型修改的思考:

(1)更改我们所使用的激活函数

(2)多层调参,多个不同激活函数可以嵌套,多个相同激活函数也可以嵌套

技术分享图片

Neuron指的是神经元(激活函数得出的值)

Neuron Netword指的是神经网路

每排Neuron叫做一个hidden layer:隐藏层

很多的hidden layer叫做deep

deep的整套技术称为Deep Learning

技术分享图片

不一直将layer更加深入的原因在于会出现过拟合现象

深度学习基本概念简介

原文:https://www.cnblogs.com/MurasameLory-chenyulong/p/14812275.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!