摘要 | 第3-5页 |
ABSTRACT | 第5-6页 |
第一章 引言 | 第11-16页 |
1.1 研究背景及意义 | 第11-12页 |
1.2 蒙古文机器翻译研究现状 | 第12-13页 |
1.2.1 蒙古文机器翻译研究现状 | 第12页 |
1.2.2 神经网络机器翻译研究现状 | 第12-13页 |
1.3 研究内容及创新点 | 第13-15页 |
1.4 论文结构及安排 | 第15-16页 |
第二章 蒙古文预处理及切分 | 第16-20页 |
2.1 概述 | 第16-17页 |
2.2 蒙古文校正 | 第17页 |
2.3 基于BPE的蒙古文词切分 | 第17-18页 |
2.4 评测标准 | 第18-19页 |
2.5 本章小结 | 第19-20页 |
第三章 多粒度神经机器翻译模型对比分析 | 第20-32页 |
3.1 长距离依赖学习的挑战 | 第20页 |
3.2 循环神经机器翻译模型 | 第20-23页 |
3.2.1 循环神经机器翻译模型 | 第20-22页 |
3.2.2 实验结果及分析 | 第22-23页 |
3.3 卷积神经机器翻译模型 | 第23-27页 |
3.3.1 线性门控单元 | 第23页 |
3.3.2 卷积神经机器翻译模型 | 第23-26页 |
3.3.3 实验结果及分析 | 第26-27页 |
3.4 基于注意力机制的Transformer翻译模型 | 第27-30页 |
3.4.1 注意力机制 | 第27-28页 |
3.4.2 Transformer翻译模型 | 第28-29页 |
3.4.3 实验结果及分析 | 第29-30页 |
3.5 实验结果及分析 | 第30-31页 |
3.6 本章小结 | 第31-32页 |
第四章 字符级蒙古文汉文机器翻译 | 第32-46页 |
4.1 字符级翻译模型 | 第32-34页 |
4.1.1 使用词作为翻译单元 | 第32-33页 |
4.1.2 使用字符作为翻译单元 | 第33-34页 |
4.2 基于卷积思想的字符级神经机器翻译模型 | 第34-36页 |
4.2.1 使用卷积操作学习局部信息 | 第34-35页 |
4.2.2 使用卷积神经网络改进Transformer翻译模型 | 第35-36页 |
4.3 基于门机制的字符级神经机器翻译模型 | 第36-38页 |
4.3.1 使用门机制过滤信息 | 第36-37页 |
4.3.2 使用门机制改进Transformer模型 | 第37页 |
4.3.3 改进字符级循环神经机器翻译模型 | 第37-38页 |
4.4 实验结果和分析 | 第38-44页 |
4.4.1 字符级神经机器翻译模型实验结果 | 第38-40页 |
4.4.2 改进模型下蒙古文子词实验结果 | 第40-41页 |
4.4.3 多卷积核宽度及深度实验结果 | 第41-43页 |
4.4.4 改进模型UNK测试实验结果 | 第43-44页 |
4.4.5 循环神经机器翻译模型及其改进模型实验结果 | 第44页 |
4.5 本章小结 | 第44-46页 |
第五章 总结与展望 | 第46-48页 |
5.1 本文工作总结 | 第46-47页 |
5.2 本文工作展望 | 第47-48页 |
参考文献 | 第48-51页 |
致谢 | 第51-52页 |
攻读硕士期间发表论文 | 第52页 |