人工神经网络靠正向、反向传播,优化数学模型。
输入层:直接接受传入的信息
输出层:输出的结果,通过结果看出神经网络对事物的认知
隐藏层:输入和输出之间各神经元组成的各个层面
如何训练
激活/刺激函数(activation function)
激活一些神经元,传递的信息是对神经元最有价值的信息,比如传入一只猫的图片,部分神经元被激活,得出一个输出(比如判断结果是一条狗)
此时另一部分神经元被激活,容易被激活的迟钝,另一部分敏感起来,说明一些参数再被改变,逐渐调整后,得出正确的结果,是一只猫
优化问题--optimization
(wx-y)到(w-0)不是等号,只是一个推导。可以看到梯度下降到最低的地方cost最小
但是往往,w不止一个,两个是一个三维的,超过3个w很难画出来
简化版的只要找到梯度躺平的点, 但是可能有局部最优,全局最优。大部分时候是局部最优
神经网络是一个黑盒:
输入-->加工(黑盒)-->输出
类比手电筒照亮黑盒子的过程
第一个输入层当做features,第二个输入层当做代表特征feature representations
一个例子
将输出层拆掉,可以看到一张数字的3个代表特征,通过右边那个图,可以看出一个分布,进而对输入的手写数字图片做一个区分。落在相同区域的数字认定为某个数字
应用:迁移学习
去掉输出层并且套上另外一个神经网络的输入层(比如这里已经获取关于右边词汇分类的代表特征,作为下一个神经网络的输入,可以进一步判断各个物品的价值)
原文:https://www.cnblogs.com/lonelyisland/p/13085221.html