N-Reader:基于双层Self-attention的机器阅读理解模型

被引:11
作者
梁小波
任飞亮
刘永康
潘凌峰
侯依宁
张熠
李妍
机构
[1] 东北大学计算机科学与工程学院
关键词
机器阅读理解; 神经网络; 注意力机制;
D O I
暂无
中图分类号
TP391.1 [文字信息处理]; TP18 [人工智能理论];
学科分类号
081203 ; 0835 ; 081104 ; 0812 ; 1405 ;
摘要
机器阅读理解是自然语言处理和人工智能领域的重要前沿课题,近年来受到学术界和工业界的广泛关注。为了提升机器阅读理解系统在多文档中文数据集上的处理能力,我们提出了N-Reader,一个基于神经网络的端到端机器阅读理解模型。该模型的主要特点是采用双层self-attention机制对单个文档以及所有输入文档进行编码。通过这样的编码,不仅可以获取单篇文档中的关键信息,还可以利用多篇文档中的相似性信息。另外,我们还提出了一种多相关段落补全算法来对输入文档进行数据预处理。这种补全算法可以帮助模型识别出具有相关语义的段落,进而预测出更好的答案序列。使用N-Reader模型,我们参加了由中国中文信息学会、中国计算机学会和百度公司联手举办的"2018机器阅读理解技术竞赛",取得了第3名的成绩。
引用
收藏
页码:130 / 137
页数:8
相关论文
共 2 条
[1]   Long short-term memory [J].
Hochreiter, S ;
Schmidhuber, J .
NEURAL COMPUTATION, 1997, 9 (08) :1735-1780
[2]  
Attention-over-attention neural networks for reading comprehension .2 Cui Y,Chen Z,Wei S,et al. . 2016