摘要 | 第4-5页 |
Abstract | 第5页 |
第一章 绪论 | 第10-15页 |
1.1 研究背景 | 第10-14页 |
1.1.1 并行执行中文分词和标点符号预测的优势 | 第10页 |
1.1.2 序列标注的传统方法 | 第10-13页 |
1.1.3 序列标注与深度学习 | 第13-14页 |
1.2 论文主要工作 | 第14页 |
1.3 论文组织 | 第14-15页 |
第二章 深度学习理论基础 | 第15-30页 |
2.1 深度学习在NLP领域流行的原因 | 第15-16页 |
2.2 神经网络模型 | 第16-19页 |
2.3 神经网络参数的训练方法和BP算法 | 第19-20页 |
2.4 RNN和经典的LSTM网络 | 第20-24页 |
2.4.1 RNN前向传播 | 第20-21页 |
2.4.2 RNN后向传播 | 第21-23页 |
2.4.3 RNN网络中的梯度消失问题 | 第23-24页 |
2.5 LSTM单元 | 第24-25页 |
2.6 字符向量化 | 第25-29页 |
2.6.1 CBOW的Hierarchicalsoftmax文本表示模型 | 第26-27页 |
2.6.2 Skip-gram的Hierarchicalsoftmax文本表示模型 | 第27-28页 |
2.6.3 CBOW和skip-gram的负采样 | 第28-29页 |
2.7 本章小结 | 第29-30页 |
第三章 深度学习与自然语言处理 | 第30-37页 |
3.1 基于n-gram的神经网络模型 | 第30-32页 |
3.2 基于RNN的序列标注模型 | 第32-33页 |
3.3 双向LSTM神经网络 | 第33-34页 |
3.4 深度学习中的注意力机制 | 第34-35页 |
3.5 本章小结 | 第35-37页 |
第四章 改进的blstm网络 | 第37-40页 |
4.1 LSTM神经网络的缺点 | 第37-38页 |
4.2 改进的多层BLSTM神经网络 | 第38页 |
4.3 联合标注集 | 第38-39页 |
4.4 本章小结 | 第39-40页 |
第五章 实验与分析 | 第40-47页 |
5.1 实验环境 | 第40页 |
5.2 实验数据集 | 第40-41页 |
5.2.1 PKU实验数据集 | 第40-41页 |
5.2.2 家电控制数据集 | 第41页 |
5.3 模型的超参数设置 | 第41-42页 |
5.4 评价标准 | 第42页 |
5.5 实验结果分析 | 第42-47页 |
5.5.1 在PKU数据集上的实验 | 第42-46页 |
5.5.2 在家电控制数据集上的实验 | 第46-47页 |
第六章 总结与展望 | 第47-49页 |
6.1 总结 | 第47页 |
6.2 展望 | 第47-49页 |
参考文献 | 第49-52页 |
攻读学位期间发表论文 | 第52-54页 |
致谢 | 第54页 |