首页 > 其他 > 详细

[DL]激活函数

时间:2020-07-16 16:00:07      阅读:34      评论:0      收藏:0      [点我收藏+]

一、激活函数:是一个非线性函数,用激活函数套在线性函数外面,正割函数就变成非线性函数,用在神经网络中,可以使得本只能拟合线性曲线的网络层,可以拟合非线性曲线。

二、激活函数举例:

1、sigmoid: y=1/(1+e^{-x}) ——>0<y<1,mean=0.5,适用于二分类

2、tanh: y = (exp(x) - exp(-x))/(exp(x) + exp(-x)) ——> -1 < y < 1,mean = 0,

tanh比sigmoid高效是因为tanh的均值为0,神经元更喜欢靠近0的输入值

sigmoid和tanh的缺点:当输入数据的值比较大时,神经网络的学习较慢。

3、relu: y = x, while x > 0

y = 0, while x <= 0

4、leaky relu : y = x,x > 0

y = λx, x <= 0

5、softmax: y = exp(z) / np.sum(exp(z))

[DL]激活函数

原文:https://www.cnblogs.com/mj-selina/p/13322105.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!