首页 > 其他 > 详细

【论文阅读】Neural Relation Extraction Within and Across Sentence Boundaries[AAAI2019]

时间:2021-02-02 19:03:46      阅读:59      评论:0      收藏:0      [点我收藏+]

论文地址:https://arxiv.org/pdf/1810.05102.pdf

代码地址(theano):https://github.com/pgcool/Cross-sentence-Relation-Extraction-iDepNN

Abstract

本文提出了一种新的方法用于跨句子的关系抽取—iDepNN:inter-sentential dependency-based neural networks

iDepNN通过循环和递归神经网络对最短和增强的依赖路径进行建模,以提取句子内部和跨(句间)句子边界的关系。

相比于之前SVM和神经网络的baseline,iDepNN对于处理句际关系的假正例更加的鲁棒性。

该模型在基于新闻专线(MUC6)和医学领域(BioNLP)的四个数据集中取得了state-of-the-art,并且对于句内关系在精确率和召回率方面更平衡。

1 Introduction

  • 已存的大部分关系抽取方法局限于句内,而忽略了句际处理。
  • 对于分处不同句子的两个相关实体e1和e2,只有两个句子合起来才能表达出它们之间的关系。
  • 这种缺失的关系检测会影响系统的性能,导致低召回率 ,并且对于医学领域中需要高精度而言也是很有影响的。
  • 本文的模型
    • 可以准确处理句内和句际的关系抽取,并且在准确率和召回率方面比较均衡。
    • 本方法扩展跨句子边界的最短依赖路径,并将其与NN中的依赖子树有效地结合起来,从而捕获结构的语义表示并促进跨越句子的关系提取。
Paul Allen has started a company and named [Vern Raburn]e1 its President. The company, to be called [Paul Allen Group]e2 will be based in Bellevue, Washington.

本文的贡献:

  • 提出了一种新的基于依存的神经结构—iDepNN(基于句际型依存的神经网络),可以用来进行句内和句际的关系抽取。
  • 在基于新闻专线和医学领域的四个数据集上测试了该模型的语言特征,并且在句际关系抽取上取得了很好的提升。此模型对于假正例有很好的鲁棒性,并且对于准确率和召回率有很好的平衡。
  • 公开了对MUC6中句内和句际关系的标注。数据、代码等见:https://github.com/pgcool/Cross-sentence-Relation-Extraction-iDepNN

3 Methodology

3.1 Inter-sentential Dependency-Based Neural Networks (iDepNN)

  • 将仅使用SDP(最短依存路径)建模跨句子边界问题的iDepNN记为iDepNN-SDP
  • 将建模 ADP(增广依存路径)的iDepNN记为iDepNN-ADP。

3.2 Modeling Inter-sentential Shortest Dependency Path (iDepNN-SDP)

  • 首先计算跨句子边界关系的实体对的iSDP(句际最短依存路径)。
    • 使用Stanford-CoreNLP依存解析器获得每一个句子的依存解析树。
    • 然后使用NetworkX将token表示为节点,将依存关系表示为节点间的链接。
  • 对于多句子的情况,一个句子解析树的根节点会连接到下一个句子的根节点,从而使得最短路径能够连接不同句子中的实体。

技术分享图片

如上图1所示,左图显示的是例句中实体1和实体2对应的依存图。右图中显示的是这两个相邻句子的依存树,并且它们的根节点通过NETXS相连,进而在两个实体间形成了一个iSDP(inter-Sentential Dependency Path),如图中深色的阴影部分所示。

技术分享图片

图2展示了biRNN使用iSDP去检测实体1和实体2之间的关系。

为了有效的表示句子最短依存路径中的单词,本文对依存子树进行建模。

??基于的观点为:每个单词w可以看作是单词本身和依存子树上它的孩子节点。

??The notion of representing words using subtree vectors within the dependency neural network (DepNN) is similar to (Liu et al. 2015); however, our proposed structures are based on iSDPs and ADPs that span sentences.

对于子树上的每个单词$w$的表示,它的词嵌入向量$x_w\in R^d$,子树表示为$c_w\in R^{d^{‘}}$,

此处使用200维的预训练Glove词嵌入(Pennington, Socher, and Manning 2014).

??对于单词的子树表示,对它的孩子节点使用递归(recurisive)计算单词的子树表示。使用RecNN去构建子树嵌入$c_w$,通过自底向上(从叶子节点到根节点)的方法进行构建,如图2所示。对于叶子节点而言,它是没有子树的,所以设置为$c_{LEAF}$,图2展示了如何通过iSDP构建基于子树的单词表示。

在自底向上的构建子树的过程中,每一个单词都会与一个依存关系$r$(例如 r=dobj)有关。对于每一个$r$,转移矩阵为$W_r\in R^{d^{‘}*(d+d^{‘})}$,此矩阵事需要学习的,子树嵌入计算如下:

$c_w=f(\sum_{q\in Children}W_{R(w,q)}·P_q+b) and P_q=[x_q,c_q$

其中,R_{(w,q)}是单词$w$和它的孩子节点单词$q$的依存关系,$b\in R^{d^{‘}}$是一个偏置项。这个过程会 持续递归到根节点(例如图中的单词节点“named”)。

3.4 Modeling Inter-sentential Augmented Dependency Path (iDepNN-ADP)

??Following Liu et al. (2015),此处结合两个部分:iSDP和dpendency subtrees,形成一个组合结构:inter-sentential Augmented Dependency Path (iDepNN-ADP)。

??如图2所示,每一个单词都附加了它的子树表示$c_w$,附加的子树丰富了iSDP上的每个单词以及关于该单词如何在特定句子中起作用的附加信息,以形成用于对句子内和句子之间的关系进行分类的更精确的结构。

??为了捕获iDepNN-ADP的语义表示,本文首先采用RecNN对iSDP中的每个单词的依存子树进行建模,然后设计了一个biRNN来获得iSDP上的显著语义特征。iDepNN-ADP的整体结构如图2所示,它是通过结合recursive and recurrent NNs构建的。

3.5 Learning

??本文对于iDepNN-SDP和iDepNN-ADP这两个结构采用biRNN方法,并且将最后的隐藏向量$h_N$(如图2中的iSDP的单词序列)放入到一个softmax层,softmax层的输出是对于关系标签R的概率分布$y$,$y=softmax(U·h_N+b_y)$,其中$U\in R^{R*H}$是连接H维隐藏向量和R维的输出层的权重矩阵,$b_y\in R^{R}$是偏置项,$h_N$是biRNN的最后隐藏向量。

  为了计算了iSDP中每个单词w的语义表示$h_w$,此处采用Connectionist biRNN (Vu et al.2016a),通过在每个时间步t添加它们的隐藏层$(h_{f_t}和h_{b_t})$来组合前向和后向传递,并且还将加权连接添加到先前组合的隐藏层$h_{t-1}$以将所有中间隐藏层包括到最终决策中。

$h_{f_t}=f(V·i_t+W·h_{f_{t-1}})$

$h_{b_t}=f(V·i_{N-t+1}+W·h_{b_{t+1}})$

$h_t=f(h_{f_t}+h_{b_t}+W·h_{t-1})$

其中,$V\in R^{H*|i|}$,N是iSDP中单词的总数,$i_t$是$t$时刻的输入向量,定义如下:

$iDepNN-SDP:i_t=[x_t,L_t]$

$iDepNN-ADP:i_t=[p_t,L_t]$

其中,$L_t$是$t$时刻每个单词的词典级别的特征(如词性标注,位置指示器,实体类型)。为了减小参数的量,这三个公式中的W是共享的。优化目标是最小化事实标签和预测标签之间的交叉熵。

3.6 Key Features

特征主要关注整个句子的词、依存路径或者单个实体,这些特征为:

  • Position-Indicator (PI):
    • A one-hot vector for SVM which indicates the position of the entity in the vocabulary. Four additional words $(<e_1>,</e_1>,<e_2>,</e_2>)$ to mark start and end of entity mentions e1 and e2, used in NNs. See details about PI in Gupta (2015).
  • Entity Types (ET):
    • A one-hot vector to represent the entity type in SVM and embedding vectors in NNs.
  • Part-of-speech (POS):
    • Part-of-speech (POS): A bag-of-words (BoW) in SVM and embedding vector for each POS type in NNs.
  • Dependency:
    • In SVM, the specific edge types in the dependency path are captured with a BoW vector, similar to Grouin (2016). In NNs, it refers to iDepNN-ADP.
  • [intersentential-]Shortest-Dependency-Path ([i-]SDP):
    • Sequence of Words on the [i-]SDP.

4 Evaluation and Analysis

主要是基于医学和新闻领域构建的四个数据集:

技术分享图片

Contribution of different components

Note: iSDP+Dependency refers to iDepNN-ADP structure:

技术分享图片

State-of-the-Art Comparisons BioNLP ST 2016 dataset:

技术分享图片

Confident Extractions:

技术分享图片

BioNLPST 2011 and 2013 datasets:

技术分享图片

MUC6 dataset

技术分享图片

Error Analysis

技术分享图片

Conclusion

我们已经提出通过在一个新的神经网络中建立句子间最短和增强依赖路径的模型来对句子边界内和跨句子边界的实体之间的关系进行分类,基于句间依赖的神经网络(iDepNN)利用递归和递归两种神经网络recurrent and recursive neural networks对句内和句间关系中的结构进行建模。在新闻通讯和医学领域的四个数据集上的实验结果表明,iDepNN对false positives具有很强的鲁棒性,在查准率和查全率方面表现出更好的平衡,在提取句子边界内和跨句子边界的关系方面达到了最先进的性能。我们也比11个参加2016年BioNLP共享任务的团队表现更好。

 

【论文阅读】Neural Relation Extraction Within and Across Sentence Boundaries[AAAI2019]

原文:https://www.cnblogs.com/Harukaze/p/14363372.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!