首页 > 其他 > 详细

Global Vectors forWord Representation

时间:2018-09-06 22:27:20      阅读:202      评论:0      收藏:0      [点我收藏+]

参考论文: GloVe: Global Vectors forWord Representation

参考博客:https://blog.csdn.net/coderTC/article/details/73864097

理解GloVe模型:

glove 模型类似于word2vec模型,都是一种词的全局向量的表示方法。

  • 模型目标:进行词的向量化表示,使得向量之间尽可能多地蕴含语义和语法的信息。
  • 输入:语料库
  • 输出:词向量
  • 方法概述:首先基于语料库构建词的共现矩阵,然后基于共现矩阵和GloVe模型学习词向量。

 

我的理解是skip-gram、CBOW每次都是用一个窗口中的信息更新出词向量,但是Glove则是用了全局的信息(共现矩阵),也就是多个窗口进行更新

Global Vectors forWord Representation

原文:https://www.cnblogs.com/jetHu/p/9601177.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!