首页 > 其他 > 详细

中文词频统计

时间:2018-03-28 01:12:25      阅读:219      评论:0      收藏:0      [点我收藏+]

题目:

下载一长篇中文文章。

从文件读取待分析文本。

news = open(‘gzccnews.txt‘,‘r‘,encoding = ‘utf-8‘)

安装与使用jieba进行中文分词。

pip install jieba

import jieba

list(jieba.lcut(news))

生成词频统计

排序

排除语法型词汇,代词、冠词、连词

输出词频最大TOP20

 

 

#coding=utf-8
import jieba

f=open(story.txt,r,encoding=utf-8)    #打开文件
text=f.read()      #读文件
wordlist=list(jieba.lcut(text))  #分解

Words={}
for i in set(wordlist):    #计算次数
    Words[i]=wordlist.count(i)

delete_word={, ,,我们, , 他们, 我的, 他的, 你的, , , ,,,,,,,,?,,,           ,,,,,,,,,,,,,, \n,(,),,,,便,,,,,,那里,           ,一个,,,,}

for i in delete_word:        #删除出现的过渡词
    if i in Words:
        del Words[i]

sort_word = sorted(Words.items(), key= lambda d:d[1], reverse = True)  # 排序
for i in range(20):
    print(sort_word[i])

 

截图:

技术分享图片

 

中文词频统计

原文:https://www.cnblogs.com/tiankongyiluozhiwu/p/8661060.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!