首页 > 其他 > 详细

Coursera, Deep Learning 5, Sequence Models, week2, Natural Language Processing & Word Embeddings

时间:2018-05-02 01:44:11      阅读:328      评论:0      收藏:0      [点我收藏+]

 

Word embeding

给word 加feature,用来区分word 之间的不同,或者识别word之间的相似性.

  技术分享图片

 

  技术分享图片

  技术分享图片

  技术分享图片

 

 

  技术分享图片

 

 

因为t-SNE 做了non-liner 的转化,所以在原来的3000维空间的平行的向量在转化过后的2D空间里基本上不会再平行.

  技术分享图片

 

看两个向量的相似性,可以用cosine similarity.

  技术分享图片

 

  技术分享图片

 

Coursera, Deep Learning 5, Sequence Models, week2, Natural Language Processing & Word Embeddings

原文:https://www.cnblogs.com/mashuai-191/p/8977909.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!