首页 > 编程语言 > 详细

crf++实现中文分词简单例子 (Windows crf++0.58 python3)

时间:2019-04-13 22:42:33      阅读:566      评论:0      收藏:0      [点我收藏+]

学习自然语言处理的同学都知道,条件随机场(crf)是个好东西。虽然它的原理确实理解起来有点困难,但是对于我们今天用到的这个crf工具crf++,用起来却是挺简单方便的。

今天只是简单试个水,参考别人的博文进行了个简单的中文分词,如有错误之处,欢迎指出。

在正式开工之前,我先介绍下条件随机场以及crf++的安装

第一部分 介绍

首先介绍下啥是条件随机场,条件随机场(CRF)是给定一组输入随机变量条件下,另一组输出随机变量的条件概率分布模型。

以一组词性标注为例,给定输入X={我,喜欢,雷峰塔},那么输出为Y={名词,动词,名词}的概率应该为最大。输入序列X又称为观测序列,输出序列Y又称为状态序列。这个状态序列构成马尔可夫随机场,所以根据观测序列,得出状态序列的概率就包括,前一个状态转化为后一状态的概率和状态变量到观测变量的概率。

回到咱们的主题中文分词,采取4-tag标注(S表示单字,B表示词首,M表示词中,E表示词尾)的话,可以为X={我喜欢雷峰塔},Y={我/S喜/B欢/E雷/B峰/M塔/E}。

而crf++是个独立工具,官网的下载地址似乎进不去,可以找找其他地方的资源。

windows版本的就下载解压就行了,Linux版本的可以参照其他博文。

训练和测试的数据下载地址,这个数据集应该是人民日报的文本。

第二部分 训练

准备好工具和数据后,就可以开工了。

首先,使用python将文本数据弄成crf++能处理的格式。

def character_tagging(input_file,output_file):
    input_data = codecs.open(input_file,‘r‘,‘utf-8‘)
    output_data = codecs.open(output_file,‘w‘,‘utf-8‘)
    for line in input_data.readlines():
        word_list = line.strip().split()
        for word in word_list:
            if len(word)==1:
                output_data.write(word+‘\tS\n‘)
            else:
                output_data.write(word[0]+‘\tB\n‘)
                for w in word[1:len(word)-1]:
                    output_data.write(w+‘\tM\n‘)
                output_data.write(word[len(word)-1]+‘\tE\n‘)
        output_data.write(‘\n‘)
    input_data.close()
    output_data.close()

 

调用character_tagging函数将下载的文本数据放进去,这些文本是已经做了分词的。源文本类似于这样:

据  新华社  北京  12月  31日  电  (  记者  罗  玉文  )  中央军委  委员  、  总政治部  主任  于  永波  日前  在  会见  全军  和  武警  部队  先进  典型  代表  时  强调  ,  全军  要  认真  贯彻  落实  江  泽民  主席  最近  的  重要  指示  精神  ,  形成  学习  邓小平理论  的  新  高潮  ,  把  这  一  学习  提高  到  十五大  所  达到  的  新  水平  ,  进一步  加强  军队  的  革命化  、  现代化  、  正规化  建设  。  

标记后,文本类似于这样:

据  S
新 B
华 M
社 E
北 B
京 E
1 B
2 M
月 E
3 B
1 M
日 E
电 S

标记后的文本数据即可用来训练了,将crf++文件夹下的crf_learn.exe、crf_test.exe、libcrfpp.dll以及example目录里seg下的template文件粘到刚刚标记好的文件所在目录下,然后在该目录下进入cmd,输入crf_learn -f 3 -c 4.0 template pku_training_tag.utf8 crf_model。

运行结果如下

技术分享图片

该目录下生成一个crf_model的模型文件,通过该模型可以对文本进行分词了。

 

第三部分 测试

 

依然是使用python进行文本数据的处理,将待分词文本处理成一列,进入cmd,输入crf_test -m crf_module  data.utf8 > outfile,将生成分词结果,当然格式依然是4-tag格式,利用python转换成好看一点的格式。

def crf_convert(input_file,output_file):
    out = codecs.open(output_file, ‘w‘, ‘utf-8‘)
    inf = codecs.open(input_file, ‘r‘, ‘utf-8‘)
    for line in inf.readlines():
        if len(line) > 3:
            if line[-3] == ‘S‘ or line[-3] == ‘E‘:
                out.write(line[0] + ‘  ‘)
            if line[-3] == ‘B‘ or line[-3] == ‘M‘:
                out.write(line[0])
    out.close()
    inf.close()

 这样,文本就做好分词了。

分词结果

据  新华社  北京  12月  31日  电  (  记者  罗  玉文  )  中央军委  委员  、  总政治部  主任  于  永波  日前  在  会见  全军  和  武警  部队  先进  典型  代表  时  强调  ,  全军  要  认真  贯彻  落实  江  泽民  主席  最近  的  重要  指示  精神  ,  形成  学习  邓小平理论  的  新  高潮  ,  把  这  一  学习  提高  到  十五大  所  达到  的  新  水平  ,  进一步  加强  军队  的  革命化  、  现代化  、  正规化  建设  。  

感觉和人工分词效果已经差不多了,这是训练的数据比较多的时候才产生的效果,试过训练时给少量数据,然后产生了下面的分词效果

  据  新华  社  北京  12  月3  1日  电(  记者  罗玉  文)  中央  军委  委  员  、  总政  治  部  主  任  于永  波  日  前  在  会  见全  军  和武  警部队  先  进典  型  代表  时强调  ,  全军  要  认真  贯  彻落  实江  泽  民  主  席  最近  的  重  要  指示  精神  ,  形成  学习  邓  小平  理论  的  新高  潮  ,  把  这  一  学习  提高  到  十五  大所  达到  的  新水  平  ,  进  一  步  加  强军队  的  革命  化  、  现  代  化  、  正规  化  建设  。  

可以看出,训练数据过少会导致模型效果很不佳。

同时,训练出来的模型对实体命名似乎不太友好,比如罗玉文这个人名,分词模型并没有分对,给分成了 罗/S 玉/B文/E ,这个有待改进。

 

crf++实现中文分词简单例子 (Windows crf++0.58 python3)

原文:https://www.cnblogs.com/zhuangzi101/p/10702348.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!