基于深度学习框架的实体关系抽取研究进展

被引:29
作者
李枫林 [1 ]
柯佳 [1 ,2 ]
机构
[1] 武汉大学信息管理学院
[2] 武汉华夏理工学院
关键词
深度学习; 神经网络; 实体关系抽取; 词向量;
D O I
10.13833/j.issn.1007-7634.2018.03.028
中图分类号
TP18 [人工智能理论]; TP391.1 [文字信息处理];
学科分类号
081104 ; 0812 ; 0835 ; 1405 ; 081203 ;
摘要
【目的/意义】从大量非结构化文本中抽取出结构化的实体及其关系,是优化搜索引擎、建立知识图谱、开发智能问答系统的基础工作。【方法/过程】介绍了深度学习框架下不同神经网络模型实现实体关系抽取的方法,比较了各种模型的优劣势,结合远程监督和注意力机制进一步提高关系抽取性能,最后指出了深度学习模型的不足及未来发展方向。【结果/结论】实验发现,卷积神经网络擅长捕获句子局部关键信息,循环神经网络擅长捕获句子的上下文信息,能反映句子多个实体之间的高阶关系,递归神经网络适合短文本的关系抽取。如果模型能结合自然语言的先验知识,实体关系抽取将会取得更好的效果。
引用
收藏
页码:169 / 176
页数:8
相关论文
共 16 条
[1]  
生物医学文本中药物信息抽取方法研究.[D].刘胜宇.哈尔滨工业大学.2016, 02
[2]  
面向《大词林》的中文实体关系挖掘.[D].刘燊.哈尔滨工业大学.2016, 02
[3]  
基于词向量和深度卷积神经网络的领域实体关系抽取.[D].邵发.昆明理工大学.2016, 02
[4]  
基于半监督和深度学习的生物实体关系抽取.[D].冯钦林.大连理工大学.2016, 03
[5]  
基于LSTM的语义关系分类研究.[D].胡新辰.哈尔滨工业大学.2015, 02
[6]   A fast learning algorithm for deep belief nets [J].
Hinton, Geoffrey E. ;
Osindero, Simon ;
Teh, Yee-Whye .
NEURAL COMPUTATION, 2006, 18 (07) :1527-1554
[7]   Long short-term memory [J].
Hochreiter, S ;
Schmidhuber, J .
NEURAL COMPUTATION, 1997, 9 (08) :1735-1780
[8]  
Distributed representations; simple recurrent networks; and grammatical structure.[J].Jeffrey L. Elman.Machine Learning.1991, 2
[9]   Backpropagation Applied to Handwritten Zip Code Recognition [J].
LeCun, Y. ;
Boser, B. ;
Denker, J. S. ;
Henderson, D. ;
Howard, R. E. ;
Hubbard, W. ;
Jackel, L. D. .
NEURAL COMPUTATION, 1989, 1 (04) :541-551
[10]  
Joint Extraction of Entities and Relations Based on a Novel Tagging Scheme..SC Z;Wang F;Bao H;et al;.https://arxiv.org/pdf/1706.05075.pdf.2017,