词嵌入(word embedding):把文本转换成数值形式,或者说——嵌入到一个数学空间里,而
词向量:一个单词所对应的向量,向量之间的数学关系可以表示单词之间的语义关系
? - CBOW是利用词的上下文预测当前的单词,cbow对较小的数据集是有用 的。CBOW速度更快
? - Skip-Gram则是利用当前词来预测上下文,skim-gram速度更慢,但是对于不常用,不常见的单词,skim-gram它的效果更好。
? - 可计算词向量加减 例如:[‘woman‘, ‘king‘] + [‘man‘] = queen
? - 可计算指定词语最相似的词语
? -计算词语的相似度
Glove
Word2vec 是代码项目的名字,只是计算词嵌入(word embedding)的一个工具
Word2Vec中从输入到隐层的过程就是Embedding的过程。 Embedding的过程就是把多维的onehot进行降维的过程,是个深度学习的过程
原文:https://www.cnblogs.com/yangzilaing/p/14656255.html