基于高级语义的通用型文本生成迁移学习
摘要 | 第5-6页 |
ABSTRACT | 第6页 |
第1章 绪论 | 第12-20页 |
1.1 课题背景和意义 | 第12-13页 |
1.2 迁移学习介绍 | 第13-15页 |
1.3 国内外研究现状 | 第15-17页 |
1.3.1 自然语言处理的建模 | 第15-16页 |
1.3.2 基于自然语言处理模型的迁移学习 | 第16-17页 |
1.4 研究内容和目标 | 第17-18页 |
1.5 文章组织结构 | 第18页 |
1.6 本章小结 | 第18-20页 |
第2章 相关工作 | 第20-34页 |
2.1 引言 | 第20页 |
2.2 高级语义 | 第20页 |
2.3 自然语言生成模型 | 第20-31页 |
2.3.1 循环神经网络 | 第21-23页 |
2.3.2 长短时记忆模型 | 第23-24页 |
2.3.3 序列到序列的自然语言处理模型 | 第24-26页 |
2.3.4 注意力机制 | 第26-27页 |
2.3.5 指针网络 | 第27-31页 |
2.4 迁移学习 | 第31-33页 |
2.4.1 词嵌人 | 第31-32页 |
2.4.2 语言模型 | 第32-33页 |
2.5 本章小结 | 第33-34页 |
第3章 迁移学习下的自然语言生成模型 | 第34-48页 |
3.1 问题描述 | 第34-35页 |
3.1.1 问题建模 | 第34-35页 |
3.1.2 模型特殊性以及普适性的说明 | 第35页 |
3.2 基于高级语义的迁移学习 | 第35-36页 |
3.3 跨数据集的迁移学习 | 第36-41页 |
3.3.1 自然语言中的先验知识 | 第36-38页 |
3.3.2 文本摘要模型框架 | 第38-39页 |
3.3.3 利用先验知识的迁移学习 | 第39-41页 |
3.4 跨任务的迁移学习 | 第41-45页 |
3.4.1 阅读理解框架 | 第41-42页 |
3.4.2 阅读理解编码器的迁移 | 第42-45页 |
3.5 训练方法 | 第45-46页 |
3.5.1 微调策略 | 第45-46页 |
3.6 本章小结 | 第46-48页 |
第4章 实验结果 | 第48-56页 |
4.1 引言 | 第48页 |
4.2 实验背景 | 第48-49页 |
4.2.1 实验数据集 | 第48页 |
4.2.2 评价指标和实验环境 | 第48-49页 |
4.3 参数设置 | 第49页 |
4.4 试验结果与分析 | 第49-53页 |
4.4.1 使用先验知识进行迁移的文本摘要 | 第49-50页 |
4.4.2 利用机器阅读迁移学习的机器翻译 | 第50-53页 |
4.5 本章小结 | 第53-56页 |
第5章 总结与展望 | 第56-58页 |
5.1 总结 | 第56页 |
5.2 展望 | 第56-57页 |
5.3 本章小结 | 第57-58页 |
参考文献 | 第58-64页 |
攻读硕士学位期间的主要研究成果 | 第64-66页 |
致谢 | 第66-68页 |
附录A | 第68-69页 |