1、机器学习分类
- 有监督学习
- 无监督学习
- 半监督学习
- 强化学习
- 遗传算法
2、神经网络
- 一种基于传统统计学的模型,由大量的神经元与其关系构成。常用来对复杂的输入和输出关系进行建模
- 误差反向传递:给出信号,得到经过神经网络算法之后的结果(信号正向传播),再根据结果来修改神经网络中的神经元强度(信号反向传播)
- 通过正向和反向传播来更新神经元,从而形成更好的神经系统
- 每一个神经元都有属于它的激活函数,在训练过程中可以通过调整不同神经元的激活参数来调整模型
-
输入层:负责信息的传入
输出层:权衡、中转、输出信息
隐藏层:负责传入信息的加工处理
- ?????但是最重要的还是不知道啊,比如输入层的信息具体怎么处理,隐藏层怎么加工,输出层又是怎么回事????具体是怎么实现完全不知啊
3、卷积神经网络(CNN)
4、循环神经网络(RNN)
- 应用:语言分析,序列化数据的处理
- 为了让神经网络在有序数据集中学习,产生对当前发生事情的意义,也就是产生“上文联系”
- x1数据下产生状态s1以及结果y1,在x2数据下产生状态s2,结果y2由状态s1和s2共同创造
5、LSTM RNN
- LSTM:long short memery,长短期记忆
- 为了解决普通RNN的弊端(在误差反向传递的时候,每循环一次都会乘以当前状态的权重w,如果w>1,那么返回的误差就会很大,可能会发生梯度爆炸;而w<1,返回的误差就会很小,可能发生梯度消失)
- 普通RNN没有办法回忆起久远记忆(刚开始数据集产生的记忆)
- 与普通RNN的区别,增加了输入、输出、忘记,有主线记忆单元,当后面的数据与前面冲突时,按比例更改“主线内容”;如果与“主线”数据相关,则添加进“主线”
莫烦Python之机器学习概念了解
原文:https://www.cnblogs.com/HJhj/p/10854390.html