首页 > 其他 > 详细

simple bert model 用于短文本关系抽取

时间:2020-03-29 16:32:05      阅读:375      评论:0      收藏:0      [点我收藏+]

Simple BERT Models for Relation Extraction and Semantic Role Labeling

1 论文动机

  • 提出了一种基于Bert的模型,来进行关系抽取(Relation Extraction)和语义角色标注(Semantic Role Labeling)
  • 不需要结合词汇和句法的特征,达到了SOTA的表现,为后续的研究提供了Baseline

2 模型介绍

2.1 关系抽取模型

关系抽取的模型示意图,如图所示:

技术分享图片

输入句子的构成为: [[CLS] sentence [SEP] subject [SEP] object [SEP]]

为了防止过拟合,对句子中的主语实体和宾语实体使用特殊的token进行mask,比如说[S-PER]表示代表人的主语实体。将经过Mask后的句子经WordPiece分词器分词后,输入给Bert的编码器

使用技术分享图片表示[[CLS] sentence [SEP]]之间词汇经Bert得到的向量表示,这里的技术分享图片并不一定是句子的长度,因为分词器可能会把单词分成几个子单词

使用技术分享图片表示主语实体的向量

使用技术分享图片表示宾语实体的向量

定义相对于主语实体的位置序列为技术分享图片

技术分享图片

式中,技术分享图片技术分享图片分别为主语实体的开始和结束位置,技术分享图片表示了和主语实体的相关位置

同样地,定于宾语实体的位置序列为技术分享图片

将位置序列转换为位置向量,和Bert的表示向量技术分享图片进行拼接,如图中(a)所示

然后将向量序列输入给一个Bi-LSTM,获取每个方向上的最后一个隐含层状态

输入给一个单隐含层的神经网络进行关系预测

2.2 语义角色标注模型

语义角色标注的模型示意图,如图所示:

技术分享图片

2.2.1 Predicate sense disambiguation,谓词意义消歧

将这个任务当做序列标注进行处理,句子经WordPiece分词器分词后,任何单词的第一个token标注为O,其余的token标注为X。经Bert后的向量表示为技术分享图片,和谓词指示器嵌入进行拼接,后经单隐含层的神经网络进行分类预测

2.2.2 Argument identification and classification,论据识别和分类

模型结构如上图所示,输入序列为 [[CLS] sentence [SEP] predicate [SEP]],经Bert后得到表示向量和指示器嵌入进行拼接,经过单层的Bi-LSTM后得到序列各个单词的隐含层表示为技术分享图片,对于预测词的表示向量技术分享图片,和每一个token的表示向量技术分享图片继续拼接,输入给单隐含层的神经网络进行分类预测

3 实验表现

关系抽取模型在TACRED数据集上和不同模型的指标对比如图所示:

技术分享图片

语义角色标注模型在CoNLL 2009和out-of-domain数据集上和不同模型的指标对比如图所示:

技术分享图片

simple bert model 用于短文本关系抽取

原文:https://www.cnblogs.com/chenyusheng0803/p/12592775.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!