摘要 | 第5-6页 |
Abstract | 第6页 |
第一章 绪论 | 第10-21页 |
1.1 研究背景与意义 | 第10-14页 |
1.1.1 文本分类的挑战 | 第10-11页 |
1.1.2 用深度学习做文本分类的优势与不足 | 第11-12页 |
1.1.3 基于深度学习的多任务文本分类技术 | 第12-13页 |
1.1.4 本文的研究问题 | 第13-14页 |
1.2 国内外研究现状 | 第14-18页 |
1.2.1 词嵌入 | 第14-15页 |
1.2.2 深度学习在文本分类上的研究 | 第15-16页 |
1.2.3 基于深度学习的多任务文本分类研究 | 第16-18页 |
1.3 本文的研究内容 | 第18-20页 |
1.4 论文结构 | 第20-21页 |
第二章 相关技术 | 第21-26页 |
2.1 循环神经网络 | 第21-24页 |
2.1.1 基本结构和原理 | 第21-22页 |
2.1.2 长短期记忆单元 | 第22-23页 |
2.1.3 门循环单元 | 第23-24页 |
2.2 深度多任务模型的训练 | 第24-26页 |
第三章 文本的有偏表示问题及改进方法 | 第26-36页 |
3.1 主流模型未考虑RNN的有偏问题 | 第26-28页 |
3.2 基于RNN和池化层的UP-RNN模型 | 第28-30页 |
3.2.1 基于混合词嵌入的输入层 | 第29页 |
3.2.2 基于RNN和池化层的隐藏层 | 第29-30页 |
3.2.3 基于Softmax分类器的输出层 | 第30页 |
3.3 基于BRNN和池化层的UP-BRNN模型 | 第30-33页 |
3.3.1 UP-RNN未捕捉后向特征 | 第30-31页 |
3.3.2 UP-BRNN的结构和原理 | 第31-33页 |
3.4 基于门机制的SP-BRNN模型 | 第33-35页 |
3.4.1 UP-BRNN未捕捉特定特征 | 第33页 |
3.4.2 SP-BRNN的结构和原理 | 第33-35页 |
3.5 本章小结 | 第35-36页 |
第四章 共享特征被误用的问题及改进方法 | 第36-42页 |
4.1 主流模型未考虑一词多义的问题 | 第36-38页 |
4.2 基于Attention机制的ASP-BRNN模型 | 第38-40页 |
4.2.1 基本结构和原理 | 第39页 |
4.2.2 Attention机制 | 第39-40页 |
4.3 本章小结 | 第40-42页 |
第五章 实验结果与分析 | 第42-54页 |
5.1 实验设置 | 第42-44页 |
5.1.1 数据集与预处理 | 第42-43页 |
5.1.2 评价指标 | 第43-44页 |
5.1.3 超参数设置 | 第44页 |
5.2 RNN神经元和池化层的结构选取 | 第44-45页 |
5.3 检验对主流模型的改进 | 第45-51页 |
5.3.1 检验多任务学习的效果 | 第46-47页 |
5.3.2 检验对文本的有偏表示问题的改进 | 第47页 |
5.3.3 检验对UP-RNN未捕捉后向特征的改进 | 第47页 |
5.3.4 检验对UP-BRNN未捕捉特定特征的改进 | 第47-48页 |
5.3.5 检验共享特征被误用的问题的改进 | 第48-51页 |
5.4 将ASP-BRNN模型与主流模型对比 | 第51-53页 |
5.4.1 对比的主流模型 | 第51-52页 |
5.4.2 实验结果对比 | 第52-53页 |
5.5 实验结论 | 第53-54页 |
第六章 总结与展望 | 第54-56页 |
参考文献 | 第56-61页 |
攻读硕士学位期间取得的研究成果 | 第61-63页 |
致谢 | 第63-64页 |
附件 | 第64页 |