首页 > 其他 > 详细

中文词频统计

时间:2018-03-28 16:16:03      阅读:172      评论:0      收藏:0      [点我收藏+]

下载一长篇中文文章。

从文件读取待分析文本。

news = open(‘gzccnews.txt‘,‘r‘,encoding = ‘utf-8‘)

安装与使用jieba进行中文分词。

pip install jieba

import jieba

list(jieba.lcut(news))

生成词频统计

排序

排除语法型词汇,代词、冠词、连词

输出词频最大TOP20

# -*- coding : UTF-8 -*-
# -*- author : Kamchuen -*-

import jieba

exclude = {,,:,,,,,,-}
txt = open(西游记.txt,r,encoding=utf-8)
article0 = txt.read()
article1 = list(jieba.lcut(article0))

symbol = {,, ,,,,\n,,,,‘‘, ,,我们, , 他们, 我的, 他的, 你的, , , ,,,?,,,           ,,,,,,,,,,,,,, \n,(,),,,,便,,,,,,那里,           ,一个,,,,}
article2 = {}
for a in article1:
    article2[a] = article2.get(a,0)+1

for b in symbol:
    if b in article2:
        del  article2[b]

article3 = sorted(article2.items(),key=lambda x:x[1],reverse=True)
for c in range(20):
    print(article3[c])

结果截图:

技术分享图片

 

中文词频统计

原文:https://www.cnblogs.com/LauSir139/p/8664341.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!