| 摘要 | 第5-6页 |
| Abstract | 第6-7页 |
| 第一章 绪论 | 第11-19页 |
| 1.1 研究背景与意义 | 第11-12页 |
| 1.2 国内外研究现状 | 第12-16页 |
| 1.2.1 国内研究现状 | 第12-14页 |
| 1.2.2 国外研究现状 | 第14-16页 |
| 1.3 自动文本摘要技术概述 | 第16-17页 |
| 1.3.1 自动文本摘要分类 | 第16页 |
| 1.3.2 自动文本摘要技术难点分析 | 第16-17页 |
| 1.4 本文主要研究内容 | 第17-19页 |
| 第二章 数据集与相关方法 | 第19-30页 |
| 2.1 引言 | 第19页 |
| 2.2 自动文摘数据集与评测 | 第19-21页 |
| 2.2.1 自动文摘数据集选取 | 第19页 |
| 2.2.2 自动文本摘要评测 | 第19-21页 |
| 2.3 深度学习相关算法 | 第21-26页 |
| 2.3.1 LSTM模型介绍 | 第21-24页 |
| 2.3.2 反向传播算法 | 第24页 |
| 2.3.3 Adagrad优化算法 | 第24-25页 |
| 2.3.4 Adam优化算法 | 第25-26页 |
| 2.4 词向量表示 | 第26-28页 |
| 2.4.1 one-hot编码 | 第26页 |
| 2.4.2 基于SVD矩阵表示 | 第26-27页 |
| 2.4.3 基于神经网络的分布式表示 | 第27-28页 |
| 2.5 解码搜索算法 | 第28-29页 |
| 2.5.1 贪心算法 | 第28页 |
| 2.5.2 beamsearch算法 | 第28-29页 |
| 2.6 本章小结 | 第29-30页 |
| 第三章 浅层相关的自动文本摘要模型 | 第30-48页 |
| 3.1 引言 | 第30页 |
| 3.2 数据集预处理 | 第30-31页 |
| 3.3 seq2seq的自动文摘模型构建 | 第31-36页 |
| 3.3.1 自动文摘的encoder-decoder框架 | 第31-32页 |
| 3.3.2 注意力机制 | 第32-33页 |
| 3.3.3 特征抽取与融合 | 第33-36页 |
| 3.4 增强语义模型 | 第36-39页 |
| 3.4.1 传统语义分析 | 第36-37页 |
| 3.4.2 增强语义的seq2seq模型 | 第37-39页 |
| 3.5 实验设置 | 第39-40页 |
| 3.5.1 实验环境 | 第39-40页 |
| 3.5.2 实验参数 | 第40页 |
| 3.6 实验结果与分析 | 第40-47页 |
| 3.7 本章小结 | 第47-48页 |
| 第四章 多注意力的自动文摘模型 | 第48-68页 |
| 4.1 引言 | 第48页 |
| 4.2 融合解码器注意力的混合指针模型 | 第48-52页 |
| 4.2.1 解码器注意力 | 第48-49页 |
| 4.2.2 未登录词(OOV) | 第49-50页 |
| 4.2.3 混合指针网络设计 | 第50-52页 |
| 4.3 基于覆盖机制的文摘模型 | 第52-56页 |
| 4.3.1 重复性问题 | 第52-53页 |
| 4.3.2 融合覆盖模型 | 第53-56页 |
| 4.4 局部关注机制 | 第56-57页 |
| 4.5 Dropout技术 | 第57-58页 |
| 4.6 实验 | 第58-67页 |
| 4.6.1 实验环境和参数 | 第58-59页 |
| 4.6.2 混合指针模型与融合覆盖模型实验 | 第59-63页 |
| 4.6.3 Dropout对比实验 | 第63-64页 |
| 4.6.4 局部注意力对比实验 | 第64-66页 |
| 4.6.5 与其他公开模型对比 | 第66-67页 |
| 4.7 本章小结 | 第67-68页 |
| 第五章 总结与展望 | 第68-71页 |
| 5.1 工作总结 | 第68-69页 |
| 5.2 研究展望 | 第69-71页 |
| 参考文献 | 第71-75页 |
| 攻读硕士学位期间取得的研究成果 | 第75-76页 |
| 致谢 | 第76-77页 |
| 附件 | 第77页 |