中文摘要 | 第3-4页 |
Abstract | 第4-5页 |
第1章 绪论 | 第8-14页 |
1.1 研究目的和意义 | 第8-10页 |
1.2 解释性意见关系识别研究现状 | 第10-11页 |
1.3 汉语解释性意见关系识别研究面临的主要问题 | 第11页 |
1.4 本文主要研究内容 | 第11-13页 |
1.5 本文的组织安排 | 第13-14页 |
第2章 基于CNN的汉语解释性意见关系识别 | 第14-36页 |
2.1 引言 | 第14-15页 |
2.2 汉语解释性意见关系 | 第15-19页 |
2.2.1 汉语解释性意见要素 | 第15页 |
2.2.2 汉语解释性意见关系类别 | 第15-19页 |
2.3 汉语解释性意见关系识别问题描述 | 第19-21页 |
2.4 CNN神经网络模型框架 | 第21-28页 |
2.5 离散特征 | 第28-29页 |
2.6 实验结果与分析 | 第29-35页 |
2.6.1 实验数据 | 第29-30页 |
2.6.2 评价指标 | 第30-31页 |
2.6.3 参数设置 | 第31页 |
2.6.4 实验设计 | 第31页 |
2.6.5 卷积核大小对实验的影响 | 第31-33页 |
2.6.6 dropout值对实验的影响 | 第33-35页 |
2.7 本章小结 | 第35-36页 |
第3章 基于LSTM的汉语解释性意见关系识别 | 第36-47页 |
3.1 引言 | 第36页 |
3.2 LSTM神经网络模型 | 第36-40页 |
3.2.1 LSTM | 第37-40页 |
3.2.2 双向LSTM | 第40页 |
3.3 Tree-LSTM神经网络模型 | 第40-43页 |
3.4 实验结果与分析 | 第43-46页 |
3.4.1 参数设置 | 第43页 |
3.4.2 隐藏层维度对实验的影响 | 第43-45页 |
3.4.3 不同dropout值大小对实验的影响 | 第45-46页 |
3.5 本章小结 | 第46-47页 |
第4章 基于Attention的汉语解释性意见关系识别 | 第47-58页 |
4.1 引言 | 第47-48页 |
4.2 Attention神经网络模型 | 第48-50页 |
4.3 CNN-Attention神经网络模型 | 第50-51页 |
4.4 LSTM-Attention神经网络模型 | 第51-52页 |
4.5 实验结果与分析 | 第52-57页 |
4.5.1 参数设置 | 第52页 |
4.5.2 不同大小卷积核对CNN-Attention实验的影响 | 第52-53页 |
4.5.3 隐藏层维度大小对LSTM-Attention实验的影响 | 第53-54页 |
4.5.4 dropout值对实验的影响 | 第54-56页 |
4.5.5 实验性能对比 | 第56-57页 |
4.6 本章小结 | 第57-58页 |
结论 | 第58-60页 |
参考文献 | 第60-66页 |
致谢 | 第66-67页 |
攻读硕士学位期间发表的学术论文及参加的科研项目 | 第67页 |