摘要 | 第5-6页 |
Abstract | 第6页 |
第一章 绪论 | 第10-13页 |
1.1 论文的研究目的和意义 | 第10页 |
1.2 国内外相关研究现状分析 | 第10-11页 |
1.3 本文研究的主要内容 | 第11-13页 |
第二章 相关研究工作 | 第13-26页 |
2.1 BiGRU模型 | 第13-14页 |
2.2 Fast Text模型 | 第14页 |
2.3 MLP模型 | 第14-15页 |
2.4 DCNN模型 | 第15-17页 |
2.5 CNNparallelBiGRU、CNNparallelBiLSTM模型 | 第17-20页 |
2.6 CNNseriesGRU、CNNseriesLSTM模型 | 第20页 |
2.7 HAN模型 | 第20-23页 |
2.8 TextCNN模型 | 第23-24页 |
2.9 TextRNN模型 | 第24页 |
2.10 RCNN模型 | 第24-26页 |
第三章 实验数据相关 | 第26-34页 |
3.1 语料库详情 | 第26页 |
3.2 语料划分 | 第26-27页 |
3.3 实验语料库的预处理工作 | 第27-28页 |
3.3.1 实验语料的分词处理 | 第27-28页 |
3.3.2 实验语料库去除非文字符号和标点符号 | 第28页 |
3.4 特征提取 | 第28-34页 |
3.4.1 Word2vec词向量 | 第28-31页 |
3.4.2 Glove词向量 | 第31-34页 |
第四章 VC、WCMG方法和FMGA模型 | 第34-40页 |
4.1 文本情感倾向性分析 | 第34页 |
4.2 文本情感倾向性分析的细粒度 | 第34页 |
4.3 文本情感倾向性分析的情感词典构建 | 第34-35页 |
4.4 VC、WCMG语料库合成方式 | 第35-37页 |
4.4.1 VC语料库合成方式 | 第35-36页 |
4.4.2 WCMG语料库合成方式 | 第36-37页 |
4.5 FMGA新模型 | 第37页 |
4.6 H5保存keras模型 | 第37-38页 |
4.7 模型性能评估方法介绍 | 第38-40页 |
第五章 实验及分析 | 第40-49页 |
5.1 实验数据 | 第40页 |
5.2 实验设置 | 第40-43页 |
5.2.1 实验对照设置 | 第40-41页 |
5.2.2 模型的一致设置 | 第41-43页 |
5.3 评价方法 | 第43页 |
5.4 实验结果 | 第43-49页 |
5.4.1 仅使用Word2vec实验结果 | 第43-44页 |
5.4.2 仅使用Glove实验结果 | 第44页 |
5.4.3 使用Word2vec Plus VC实验结果 | 第44-46页 |
5.4.4 使用WCMG方法实验结果 | 第46页 |
5.4.5 将Concatenate方式换成Dot方式的实验结果 | 第46-47页 |
5.4.6 使用WCMG方法的新模型结果 | 第47-48页 |
5.4.7 使用WCMG方法的各模型F1值比较 | 第48-49页 |
第六章 结论及展望 | 第49-51页 |
6.1 本篇论文最终结论 | 第49页 |
6.2 实验中所遇到的瓶颈 | 第49-50页 |
6.3 未来展望 | 第50-51页 |
参考文献 | 第51-55页 |
附录 | 第55-60页 |
附录1 VC语料库合成方式函数 | 第55-56页 |
附录2 Keras实现的FastText模型核心代码 | 第56-57页 |
附录3 Keras实现的CNNparallelBiGRU模型核心代码 | 第57-58页 |
附录4 Keras实现的HAN模型核心代码 | 第58-59页 |
附录5 Keras实现的RCNN模型核心代码 | 第59-60页 |
致谢 | 第60页 |