首页 > 其他 > 详细

中文词频统计及词云制作

时间:2017-09-25 16:37:54      阅读:300      评论:0      收藏:0      [点我收藏+]
  • 中软国际华南区技术总监曾老师还会来上两次课,同学们希望曾老师讲些什么内容?(认真想一想回答)

  希望老师讲一下python技术在哪些地方、哪些项目部分有所应用,可以的话展示一下部分的实际项目。

  • 中文分词
    • 下载一中文长篇小说,并转换成UTF-8编码。
    • 使用jieba库,进行中文词频统计,输出TOP20的词及出现次数。
    • **排除一些无意义词、合并同一词。
    • **使用wordcloud库绘制一个词云。
    • (**两项选做,此次作业要求不能雷同。)
import jieba
from wordcloud import WordCloud
import matplotlib.pyplot as plt

f0 = open(全职法师.txt,r,encoding=utf-8)
qz = f0.read()
f0.close()

words = list(jieba.cut(qz))

ul={那个, , 整个, ,,, 我们,,,,, ,    怎么, 能够,,他们, 你们,知道, 什么,, 一个,,,    ,没有,已经,就是,可以,,,这个,,,, 说道,    ,, ,,,,,,,,,, ,,    ,,,, ,,,,,,,,,,    ,,,,, ,\u3000,,\n}
dic={}

keys = set(words)-ul
for i in keys:
    dic[i]=words.count(i)

c = list(dic.items())
c.sort(key=lambda x:x[1],reverse=True)

f1 = open(词云.txt,w)
for i in range(20):
    print(c[i])
    for words_count in range(c[i][1]):
        f1.write(c[i][0]+ )
f1.close()

f3 = open(词云.txt,r)
cy_file = f3.read()
f3.close()
cy = WordCloud().generate(cy_file)
plt.imshow(cy)
plt.axis("off")
plt.show()

技术分享

 

 技术分享

 

中文词频统计及词云制作

原文:http://www.cnblogs.com/zeson/p/7592560.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!