神经机器翻译网络结构建模研究
摘要 | 第4-6页 |
Abstract | 第6-7页 |
第一章 绪论 | 第12-22页 |
1.1 研究的背景和意义 | 第12-14页 |
1.2 神经机器翻译的研究现状 | 第14-18页 |
1.3 论文的研究内容 | 第18-19页 |
1.4 论文的组织结构 | 第19-22页 |
第二章 神经机器翻译 | 第22-34页 |
2.1 词嵌入 | 第22-23页 |
2.2 循环神经网络 | 第23-26页 |
2.3 注意机制 | 第26-28页 |
2.4 神经机器翻译 | 第28-30页 |
2.5 模型优化 | 第30-31页 |
2.6 柱搜索解码 | 第31-33页 |
2.7 本章小结 | 第33-34页 |
第三章 基于上下文感知编码器的神经机器翻译 | 第34-46页 |
3.1 引言 | 第34-35页 |
3.2 上下文感知的循环编码器 | 第35-37页 |
3.3 实验结果及分析 | 第37-44页 |
3.3.1 实验数据 | 第37页 |
3.3.2 实验设置 | 第37-38页 |
3.3.3 实验结果 | 第38-42页 |
3.3.4 词对齐实验 | 第42-43页 |
3.3.5 实例分析 | 第43-44页 |
3.4 本章小结 | 第44-46页 |
第四章 基于循环网络注意机制的神经机器翻译 | 第46-58页 |
4.1 引言 | 第46-47页 |
4.2 基于循环神经网络的注意机制 | 第47-48页 |
4.3 实验结果及分析 | 第48-56页 |
4.3.1 实验数据 | 第48-49页 |
4.3.2 实验设置 | 第49页 |
4.3.3 实验结果 | 第49-54页 |
4.3.4 模型集成 | 第54-55页 |
4.3.5 模型分析 | 第55-56页 |
4.4 本章小结 | 第56-58页 |
第五章 基于隐变量变分解码器的神经机器翻译 | 第58-70页 |
5.1 引言 | 第58-59页 |
5.2 背景介绍 | 第59-61页 |
5.3 基于隐变量的变分解码器 | 第61-64页 |
5.3.1 变分先验模型 | 第62页 |
5.3.2 变分后验模型 | 第62-63页 |
5.3.3 变分解码器模型 | 第63页 |
5.3.4 模型训练 | 第63-64页 |
5.4 实验结果与分析 | 第64-69页 |
5.4.1 实验数据 | 第64-65页 |
5.4.2 实验设置 | 第65页 |
5.4.3 实验结果 | 第65-68页 |
5.4.4 实例分析 | 第68-69页 |
5.5 本章小结 | 第69-70页 |
第六章 总结与展望 | 第70-72页 |
6.1 总结 | 第70-71页 |
6.2 展望 | 第71-72页 |
参考文献 | 第72-81页 |
硕士期间发表学术论文情况 | 第81-83页 |
致谢 | 第83-84页 |