摘要 | 第5-6页 |
ABSTRACT | 第6页 |
第1章 绪论 | 第9-16页 |
1.1 研究背景 | 第9-10页 |
1.2 国内外研究现状 | 第10-14页 |
1.2.1 深度学习的研究现状 | 第10-11页 |
1.2.2 深度学习在NLP领域研究现状 | 第11-12页 |
1.2.3 情感分析研究现状 | 第12-14页 |
1.3 本文主要研究内容 | 第14-15页 |
1.4 论文组织结构 | 第15-16页 |
第2章 相关概念和数据集 | 第16-25页 |
2.1 词向量 | 第16-21页 |
2.1.1 词向量训练模型 | 第16-20页 |
2.1.2 蕴含情感信息的词向量 | 第20-21页 |
2.2 传统情感分析任务研究方法 | 第21-22页 |
2.2.1 文本预处理 | 第21页 |
2.2.2 特征提取 | 第21-22页 |
2.3 数据集介绍 | 第22-23页 |
2.3.1 词向量训练数据集 | 第22页 |
2.3.2 情感词典数据集 | 第22-23页 |
2.3.3 情感分析任务数据集 | 第23页 |
2.4 性能指标度量 | 第23-24页 |
2.5 本章小结 | 第24-25页 |
第3章 基于LSTM模型的构建和训练 | 第25-46页 |
3.1 相关技术原理 | 第25-36页 |
3.1.1 LSTM的原理和发展 | 第25-31页 |
3.1.2 改进的LSTM——GRU | 第31-32页 |
3.1.3 Dropout技术 | 第32-33页 |
3.1.4 常用激活函数 | 第33-36页 |
3.2 基于LSTM的模型整体构建 | 第36-40页 |
3.2.1 整体结构图 | 第36页 |
3.2.2 数据处理 | 第36-38页 |
3.2.3 Embedding层 | 第38页 |
3.2.4 BLSTM层 | 第38-39页 |
3.2.5 Softmax层 | 第39-40页 |
3.3 LSTM型网络的训练算法 | 第40-42页 |
3.4 LSTM的优化算法——Adam | 第42-44页 |
3.5 模型要点总结 | 第44-45页 |
3.6 本章小结 | 第45-46页 |
第4章 基于LSTM的情感分析融合模型 | 第46-53页 |
4.1 融合模型总体架构 | 第46-47页 |
4.2 基于word2vec的情感词向量模型 | 第47-48页 |
4.3 融入attention机制的AT-BLSTM的设计 | 第48-50页 |
4.4 融合LSTM和CNN的AT-BL&C模型的设计 | 第50-52页 |
4.4.1 模型设计 | 第50-52页 |
4.4.2 模型中的向量融合方式 | 第52页 |
4.5 本章小结 | 第52-53页 |
第5章 综合实验和结果分析 | 第53-60页 |
5.1 实验环境 | 第53页 |
5.2 词向量层对比实验和结果分析 | 第53-54页 |
5.3 LSTM模型的对比实验 | 第54-57页 |
5.3.1 单向LSTM和双向LSTM(BLSTM)对比实验 | 第55页 |
5.3.2 LSTM和GRU对比实验 | 第55页 |
5.3.3 Adam优化算法对模型的影响实验 | 第55-56页 |
5.3.4 Dropout对抗过拟合实验 | 第56-57页 |
5.4 基于LSTM的情感分析融合模型对比实验 | 第57页 |
5.5 激活函数实验 | 第57-58页 |
5.6 本章小结 | 第58-60页 |
第6章 总结和展望 | 第60-62页 |
6.1 总结 | 第60页 |
6.2 展望 | 第60-62页 |
参考文献 | 第62-65页 |
攻读硕士学位期间发表的论文及其它成果 | 第65-66页 |
致谢 | 第66页 |