摘要 | 第3-4页 |
Abstract | 第4页 |
1 绪论 | 第9-17页 |
1.1 研究背景 | 第9-11页 |
1.2 研究现状 | 第11-15页 |
1.3 论文结构 | 第15-17页 |
2 面向文本分类的神经网络架构 | 第17-39页 |
2.1 引言 | 第17页 |
2.2 词嵌入 | 第17-20页 |
2.3 前馈神经网络 | 第20-23页 |
2.3.1 前馈神经网络 | 第20-21页 |
2.3.2 网络训练 | 第21-23页 |
2.4 卷积神经网络 | 第23-29页 |
2.4.1 基本卷积神经网络 | 第23-25页 |
2.4.2 动态卷积神经网络 | 第25-27页 |
2.4.3 其它卷积神经网络 | 第27-29页 |
2.5 循环神经网络 | 第29-37页 |
2.5.1 Vanilla RNN | 第29-31页 |
2.5.2 梯度弥散和权值初始化 | 第31-33页 |
2.5.3 LSTM及其变体 | 第33-35页 |
2.5.4 双向多层RNN | 第35-37页 |
2.6 本章小结 | 第37-39页 |
3 融合BLSTM与Inception的神经网络 | 第39-55页 |
3.1 引言 | 第39-40页 |
3.2 基本CNN和RNN在情感分类中的对比 | 第40-44页 |
3.2.1 文本分类中的RNN架构设计 | 第40-41页 |
3.2.2 情感分类实验设置 | 第41-43页 |
3.2.3 实验结果 | 第43-44页 |
3.3 融合BLSTM和Inception的神经网络模型BLSTM-Inception v1 | 第44-47页 |
3.3.1 词嵌入层 | 第44页 |
3.3.2 BLSTM-Inception模块中的BLSTM部分 | 第44-45页 |
3.3.3 BLSTM-Inception模块中的Inception部分 | 第45-46页 |
3.3.4 全局最大池化层 | 第46页 |
3.3.5 输出层 | 第46-47页 |
3.3.6 正则化 | 第47页 |
3.4 实验设置 | 第47-48页 |
3.4.1 数据集 | 第47-48页 |
3.4.2 词嵌入层设置 | 第48页 |
3.4.3 超参数和训练细节 | 第48页 |
3.5 实验分析 | 第48-54页 |
3.5.1 BLSTM-Inception v1的总体性能 | 第48-49页 |
3.5.2 斯坦福情感分类中额外短语和批规范化的影响 | 第49-50页 |
3.5.3 单通道模式vs.双通道模式 | 第50-51页 |
3.5.4 全局最大池化的正则效果 | 第51-52页 |
3.5.5 BLSTM部分中隐状态的维度的影响 | 第52-53页 |
3.5.6 可视化分析 | 第53-54页 |
3.6 本章小结 | 第54-55页 |
4 基于短语注意机制的神经网络 | 第55-67页 |
4.1 引言 | 第55-56页 |
4.2 基于短语注意机制的神经网络框架 | 第56-59页 |
4.2.1 词嵌入层 | 第57页 |
4.2.2 卷积层 | 第57页 |
4.2.3 双向LSTM层 | 第57-58页 |
4.2.4 注意机制 | 第58-59页 |
4.2.5 输出层 | 第59页 |
4.2.6 网络正则化 | 第59页 |
4.3 实验设置 | 第59-60页 |
4.3.1 数据集 | 第59-60页 |
4.3.2 词嵌入层设置 | 第60页 |
4.3.3 超参数设置及训练细节 | 第60页 |
4.4 实验分析 | 第60-66页 |
4.4.1 NN-PA1模型与其它文本分类方法的比较 | 第60-62页 |
4.4.2 数据规模的影响 | 第62页 |
4.4.3 注意机制对收敛性的影响 | 第62-63页 |
4.4.4 短语注意机制与词注意机制的可视化对比分析 | 第63-64页 |
4.4.5 五种注意机制的比较 | 第64-65页 |
4.4.6 短语长度的影响 | 第65-66页 |
4.5 本章小结 | 第66-67页 |
5 总结与展望 | 第67-69页 |
5.1 总结 | 第67-68页 |
5.2 展望 | 第68-69页 |
致谢 | 第69-70页 |
参考文献 | 第70-75页 |
附录 | 第75页 |