首页 > 其他 > 详细

Task3.特征选择

时间:2019-05-16 20:02:21      阅读:122      评论:0      收藏:0      [点我收藏+]

参考:https://www.jianshu.com/p/f3b92124cd2b 

互信息

衡量两个随机变量之间的相关性,两个随机变量相关信息的多少。

随机变量就是随机试验结果的量的表示,可以理解为按照某个概率分布进行取值的变量,比如袋子里随机抽取一个小球就是一个随机变量,互信息就是对x和y所有可能

的取值的点互信息的加权和。

技术分享图片

 

点的互信息PMI从互信息中衍生出来的

PMI用来衡量两个事物之间的相关性,公式技术分享图片

在概率论中,当p(x,y) = p(x) * p(y)我们说x于y相互独立。当概率加上log后,就变成了信息量。

例子:

衡量like这个词的极性(为正向情感还是负向情感),提前调一个正向情感的词如nice,算nice和like的PMI

PMI(like,nice) = log(p(like,nice)/p(like)p(nice))。PMI越大表示两个词的相关性就越大,nice的正向情感就越明显。

 编程求解互信息:

1 from sklearn import metrics as mr
2 mr.mutual_info_score([1,2,3,4],[4,3,2,1])

 

tf-idf

tf:Term Frequency 词频

idf: Inverse Document Frequency逆文档频率

在开始,我们用词频来衡量一个词的重量程度,这一点是不科学的,如进行简历筛选时,大部分人都有的技能并不是HR想要寻找的,反而是那些出现频率低的。

所以就出现了idf。

技术分享图片

N代表语料库中文本的总数,N(x)代表语料库中包含x的文本数目。可见出现的频率越低,IDF值越大。

避免0概率事件,我们要进行平滑。

技术分享图片

右边+1是为了避免该词在所有文本中都出现过,(N(x) = N ,log1=0)。

技术分享图片

TF(x)指词在当前文本中的词频。

利用sklearn进行统计tfidf值

 1 from sklearn.feature_extraction.text import TfidfVectorizer
 2 corpus = [
 3     this is the first document,
 4     this is the second second document,
 5     and the third one,
 6     is this the first document
 7 ]
 8 tfidf = TfidfVectorizer()
 9 res = tfidf.fit_transform(corpus)
10 print(res)
  (0, 8)    0.4387767428592343
  (0, 3)    0.4387767428592343
  (0, 6)    0.35872873824808993
  (0, 2)    0.5419765697264572
  (0, 1)    0.4387767428592343
  (1, 8)    0.27230146752334033
  (1, 3)    0.27230146752334033
  (1, 6)    0.2226242923251039
  (1, 1)    0.27230146752334033
  (1, 5)    0.8532257361452784
  (2, 6)    0.2884767487500274
  (2, 0)    0.5528053199908667
  (2, 7)    0.5528053199908667
  (2, 4)    0.5528053199908667
  (3, 8)    0.4387767428592343
  (3, 3)    0.4387767428592343
  (3, 6)    0.35872873824808993
  (3, 2)    0.5419765697264572
  (3, 1)    0.4387767428592343

输出结果为:(文本id,词id)tfidf值

Task3.特征选择

原文:https://www.cnblogs.com/NPC-assange/p/10870985.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!