[1]张勇,高大林,巩敦卫,等.用于关系抽取的注意力图长短时记忆神经网络[J].智能系统学报,2021,16(3):518-527.[doi:10.11992/tis.202008036]
ZHANG Yong,GAO Dalin,GONG Dunwei,et al.Attention graph long short-term memory neural network for relation extraction[J].CAAI Transactions on Intelligent Systems,2021,16(3):518-527.[doi:10.11992/tis.202008036]
点击复制
《智能系统学报》[ISSN 1673-4785/CN 23-1538/TP] 卷:
16
期数:
2021年第3期
页码:
518-527
栏目:
学术论文—知识工程
出版日期:
2021-05-05
- Title:
-
Attention graph long short-term memory neural network for relation extraction
- 作者:
-
张勇, 高大林, 巩敦卫, 陶一凡
-
中国矿业大学 信息与控制工程学院,江苏 徐州 221116
- Author(s):
-
ZHANG Yong, GAO Dalin, GONG Dunwei, TAO Yifan
-
School of Information and Control Engineering, China University of Mining and Technology, Xuzhou 221116, China
-
- 关键词:
-
关系抽取; 句子结构树; 句法图; 图神经网络; 注意力图长短时记忆神经网络; 软修剪策略; 注意力机制; 长短时记忆神经网络
- Keywords:
-
relation extraction; sentence structure tree; syntactic diagram; graph neural network; AGLSTM; soft pruning strategy; attention mechanism; LSTM
- 分类号:
-
TP311
- DOI:
-
10.11992/tis.202008036
- 摘要:
-
关系抽取是信息获取中一项关键技术。句子结构树能够捕获单词之间的长距离依赖关系,已被广泛用于关系抽取任务中。但是,现有方法存在过度依赖句子结构树本身信息而忽略外部信息的不足。本文提出一种新型的图神经网络模型,即注意力图长短时记忆神经网络(attention graph long short term memory neural network, AGLSTM)。该模型采用一种软修剪策略自动学习对关系抽取有用的句子结构信息;通过引入注意力机制,结合句法图信息学习句子的结构特征;并设计一种新型的图长短时记忆神经网络,使得模型能够更好地融合句法图信息和句子的时序信息。与10种典型的关系抽取方法进行对比,实验验证了该模型的优异性能。
- Abstract:
-
Relation extraction is a key technology in information acquisition. The sentence structure tree that can capture long-distance dependencies between words has been widely used in relational extraction tasks. However, existing methods still have the disadvantage of relying too much on the information of sentence structure tree and ignoring external information. This paper proposes a new graph neural network structure, namely the attention graph long short term memory neural network (AGLSTM). The model adopts a soft pruning strategy to automatically learn sentence structure information useful for relation extraction tasks; then the attention mechanism is introduced and combined with the syntactic graph information to learn the structural features of the sentence; And designed a new type of graph long short term memory neural network to better fuse syntactic graph information and sentence timing information. Compared with 10 typical relational extraction methods, experiments verify the excellent performance of the proposed method.
备注/Memo
收稿日期:2020-08-30。
基金项目:国家重点研发计划项目(2020YFB1708200);科技部科技创新2030重大项目(2020AAA0107300)
作者简介:张勇,教授,博士生导师,博士,中国人工智能学会自然计算与数字智能城市专委会委员,主要研究方向为智能优化和数据挖掘。主持国家自然科学基金3项,中国博士后科学基金特别资助等省部级科研项目5项。获教育部高等学校科学研究优秀成果二等奖。获授权发明专利4项,发表学术论文50余篇;高大林,硕士研究生,主要研究方向为自然语言处理、关系抽取;巩敦卫,教授,博士生导师,博士,江苏省自动化学会常务理事、副秘书长,主要研究方向为智能优化和软件测试。主持国家“973”计划子课题1项,国家重点研发计划子课题1项,国家自然科学基金6项,省部级科研项目8项。获高等学校科学研究优秀成果二等奖、江苏省科学技术二等奖。获授权发明专利15项。出版专著8部,发表学术论文100余篇
通讯作者:高大林.E-mail:1367963012@qq.com
更新日期/Last Update:
2021-06-25