首页 > 其他 > 详细

中文词频统计及词云制作

时间:2017-09-25 18:16:01      阅读:371      评论:0      收藏:0      [点我收藏+]

1.中软国际华南区技术总监曾老师还会来上两次课,同学们希望曾老师讲些什么内容?(认真想一想回答)

python的实际应用,Python的实际操作案例

2.中文分词

A.下载一中文长篇小说,并转换成UTF-8编码

《三体》中的第一章节

B.使用jieba库,进行中文词频统计,输出TOP20的词及出现次数

import jieba
txt = open(三体01.txt,r).read()
words = list(jieba.cut(txt))
dic= {}
keys = set(words)
for i in keys:
    dic[i] = words.count(i)
wc = list(dic.items())
wc.sort(key=lambda x:x[1],reverse=True)
print("20个出现次数最多的词语:")
for i in range(20):
    print(wc[i])

 

技术分享

 

C.**排除一些无意义词、合并同一词

 

import jieba
txt = open(三体01.txt,r).read()
exc = {‘‘,\n\n,,,孩儿,,,,他们,,,卫兵,,,,,,女孩儿,,,,,,,,,,,,,,,,,,,,,,,,,,一个,没有}
words = list(jieba.cut(txt,cut_all=True))
dic= {}
keys = set(words)
for i in exc:
    keys.remove(i)
for i in keys:
    dic[i] = words.count(i)
wc = list(dic.items())
wc.sort(key=lambda x:x[1],reverse=True)
print("20个出现次数最多的词语:")
for i in range(20):
    print(wc[i])

 

技术分享

D.**使用wordcloud库绘制一个词云

 

中文词频统计及词云制作

原文:http://www.cnblogs.com/zjq-013/p/7592289.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!