首页 > 其他 > 详细

deep learning笔记

时间:2014-07-02 20:20:53      阅读:285      评论:0      收藏:0      [点我收藏+]

一般deep learning需要两步, unsupervised pre-train 和 superviesed NN training. Pre-training 用unsupervised方法train神经网络,得到word representation. 在第二步 supervised NN training 中, word representation 也会update去适应新的问题,比如NER, POS。 这一点和别的方法不同,比如用svm, 只用第一步固定的word representation来做 supervised learning.

Deep learning另一个好处是statistical, Potential to learn from less labeled examples because of sharing of statistical strength. 

 

deep learning笔记,布布扣,bubuko.com

deep learning笔记

原文:http://www.cnblogs.com/wintor12/p/3819272.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!