摘要 | 第5-7页 |
abstract | 第7-8页 |
第一章 绪论 | 第12-23页 |
1.1 自然语言处理简介 | 第12-21页 |
1.1.1 独热编码 | 第12页 |
1.1.2 词嵌入简介 | 第12-13页 |
1.1.3 Word2vec简介 | 第13-14页 |
1.1.4 语言模型 | 第14-15页 |
1.1.5 循环神经网络 | 第15-16页 |
1.1.6 长短期记忆LSTM | 第16-18页 |
1.1.7 门控循环单元GRU | 第18-19页 |
1.1.8 Seq2seq | 第19-20页 |
1.1.9 注意力 | 第20-21页 |
1.2 Question-Answering智能问答系统简介 | 第21-22页 |
1.2.1 智能问答系统概述 | 第21页 |
1.2.2 智能问答系统分类 | 第21-22页 |
1.2.3 智能问答系统方法 | 第22页 |
1.3 本论文的创新点及主要工作内容 | 第22-23页 |
第二章 自然语言处理及预训练语言模型的理论研究 | 第23-40页 |
2.1 预训练模型ELMo | 第23-24页 |
2.1.1 ELMo简介 | 第23页 |
2.1.2 ELMo结构 | 第23-24页 |
2.2 Transformer | 第24-28页 |
2.2.1 Transformer结构 | 第24-28页 |
2.3 预训练模型GPT | 第28-30页 |
2.3.1 GPT模型结构 | 第28-29页 |
2.3.2 GPT模型实现 | 第29页 |
2.3.3 GPT模型缺点 | 第29-30页 |
2.4 预训练模型BERT | 第30-33页 |
2.4.1 BERT模型结构 | 第30-32页 |
2.4.2 BERT与下游任务 | 第32页 |
2.4.3 BERT的优缺点 | 第32-33页 |
2.5 XLNet | 第33-36页 |
2.5.1 排列语言模型 | 第33-34页 |
2.5.2 Attention Mask | 第34-36页 |
2.6 ALBERT | 第36-38页 |
2.6.1 减少参数的方法 | 第36-38页 |
2.6.2 句子顺序预测 | 第38页 |
2.7 本章小结 | 第38-40页 |
第三章 基本模型BiDAF在 SQuAD数据集的研究 | 第40-55页 |
3.1 SQuAD数据集 | 第40-42页 |
3.1.1 SQuAD2.0样例 | 第40-41页 |
3.1.2 SQuAD2.0训练集 | 第41页 |
3.1.3 SQuAD2.0验证集 | 第41-42页 |
3.1.4 SQuAD2.0测试集 | 第42页 |
3.2 BiDAF基本模型 | 第42-46页 |
3.2.1 嵌入层 | 第43页 |
3.2.2 编码层 | 第43-44页 |
3.2.3 注意力层 | 第44-45页 |
3.2.4 建模层 | 第45页 |
3.2.5 输出层 | 第45-46页 |
3.3 损失函数与模型评估 | 第46-47页 |
3.4 推理与评估 | 第47页 |
3.5 训练流程 | 第47-52页 |
3.5.1 数据预处理 | 第47-50页 |
3.5.2 训练 | 第50-52页 |
3.6 训练结果 | 第52-54页 |
3.7 本章小结 | 第54-55页 |
第四章 ALBERT在 SQuAD数据集的研究 | 第55-67页 |
4.1 ALBERT预训练模型概括 | 第55-60页 |
4.1.1 整体架构 | 第56-57页 |
4.1.2 训练流程 | 第57-60页 |
4.2 模型结果 | 第60-66页 |
4.3 本章小结 | 第66-67页 |
第五章 总结与展望 | 第67-68页 |
致谢 | 第68-69页 |
参考文献 | 第69-72页 |
攻读硕士学位期间取得的成果 | 第72页 |