摘要 | 第4-6页 |
Abstract | 第6-7页 |
第一章 绪论 | 第15-24页 |
1.1 研究背景 | 第15-16页 |
1.2 研究现状 | 第16-20页 |
1.2.1 统计机器翻译模型学习研究 | 第17-18页 |
1.2.2 神经网络机器翻译模型学习研究 | 第18-20页 |
1.3 存在的问题 | 第20-21页 |
1.4 论文的主要研究内容 | 第21-22页 |
1.5 论文组织结构 | 第22-24页 |
第二章 机器翻译背景知识简介 | 第24-36页 |
2.1 统计机器翻译简介 | 第24-32页 |
2.1.1 翻译建模 | 第24-26页 |
2.1.2 特征子模型 | 第26-29页 |
2.1.3 参数学习 | 第29-31页 |
2.1.4 解码 | 第31页 |
2.1.5 模型评价 | 第31-32页 |
2.2 神经网络机器翻译简介 | 第32-35页 |
2.2.1 翻译建模 | 第32-35页 |
2.2.2 翻译推理 | 第35页 |
2.3 本章小结 | 第35-36页 |
第三章 一种基于列表排序优化的机器翻译模型参数训练方法 | 第36-50页 |
3.1 引言 | 第36-37页 |
3.2 学习框架 | 第37-41页 |
3.2.1 训练目标 | 第38-39页 |
3.2.2 基于样本聚集的训练 | 第39-41页 |
3.3 顶序增强的损失函数 | 第41页 |
3.4 实验 | 第41-47页 |
3.4.1 数据准备 | 第41-42页 |
3.4.2 输入特征 | 第42-43页 |
3.4.3 训练配置 | 第43-44页 |
3.4.4 基于列表排序的学习框架 | 第44-45页 |
3.4.5 顶序增强的损失函数的影响 | 第45-46页 |
3.4.6 翻译候选列表大小的影响 | 第46-47页 |
3.4.7 基础特征集合上的性能 | 第47页 |
3.5 本章小结 | 第47-50页 |
第四章 一种基于神经网络模型框架的统计机器翻译模型 | 第50-64页 |
4.1 引言 | 第50-52页 |
4.2 模型架构 | 第52-53页 |
4.2.1 两层神经网络 | 第52页 |
4.2.2 解码 | 第52-53页 |
4.3 学习框架 | 第53-55页 |
4.3.1 学习指标 | 第53-54页 |
4.3.2 训练目标 | 第54-55页 |
4.3.3 训练过程 | 第55页 |
4.4 网络结构 | 第55-58页 |
4.4.1 隐层入度受限网络 | 第56-57页 |
4.4.2 基于特征分组的网络(GN) | 第57页 |
4.4.3 自组织网络(SON) | 第57-58页 |
4.5 实验 | 第58-63页 |
4.5.1 学习指标实验 | 第58-59页 |
4.5.2 网络结构实验 | 第59-60页 |
4.5.3 模型规模和训练时间 | 第60-63页 |
4.6 本章小结 | 第63-64页 |
第五章 一种字词信息融合的神经网络机器翻译模型 | 第64-77页 |
5.1 引言 | 第64-65页 |
5.2 模型架构 | 第65-69页 |
5.2.1 字注意力机制的编码器 | 第65-67页 |
5.2.2 多级别注意力机制的解码器 | 第67-69页 |
5.3 实验 | 第69-74页 |
5.3.1 实验数据集 | 第69页 |
5.3.2 基线系统 | 第69-70页 |
5.3.3 实验细节 | 第70-71页 |
5.3.4 字注意力机制的编码器模型 | 第71-72页 |
5.3.5 多级注意力机制 | 第72-73页 |
5.3.6 基于子词的模型 | 第73页 |
5.3.7 结果分析 | 第73-74页 |
5.4 本章小结 | 第74-77页 |
第六章 一种句法信息增强的神经网络机器翻译模型 | 第77-91页 |
6.1 引言 | 第77-79页 |
6.2 模型架构 | 第79-85页 |
6.2.1 前言 | 第79-80页 |
6.2.2 基于Tree-GRU的编码器 | 第80-81页 |
6.2.3 双向树编码器 | 第81-82页 |
6.2.4 树覆盖度模型 | 第82-85页 |
6.3 实验 | 第85-89页 |
6.3.1 数据 | 第85页 |
6.3.2 模型和训练细节 | 第85-86页 |
6.3.3 树编码器 | 第86-88页 |
6.3.4 树覆盖度模型 | 第88页 |
6.3.5 句子长度的影响 | 第88-89页 |
6.4 本章小结 | 第89-91页 |
第七章 总结与展望 | 第91-94页 |
7.1 本文的主要贡献 | 第91-92页 |
7.2 未来的研究方向 | 第92-94页 |
参考文献 | 第94-108页 |
致谢 | 第108-109页 |
简历与科研成果 | 第109-112页 |