面向神经机器翻译的数据增强方法及应用
摘要 | 第5-7页 |
ABSTRACT | 第7-8页 |
第1章 绪论 | 第16-27页 |
1.1 研究背景及意义 | 第16-18页 |
1.2 国内外研究现状 | 第18-23页 |
1.3 研究内容和主要贡献 | 第23-25页 |
1.4 本文的组织结构 | 第25-27页 |
第2章 机器翻译与数据增强 | 第27-42页 |
2.1 机器翻译 | 第27-37页 |
2.1.1 统计机器翻译 | 第28-31页 |
2.1.2 神经机器翻译 | 第31-37页 |
2.1.3 机器翻译评测标准 | 第37页 |
2.2 数据增强 | 第37-40页 |
2.2.1 计算机视觉领域上的应用 | 第38-39页 |
2.2.2 自然语言处理领域上的应用 | 第39-40页 |
2.3 本章小结 | 第40-42页 |
第3章 针对半监督神经机器翻译的联合训练方法 | 第42-58页 |
3.1 引言 | 第42-43页 |
3.2 开发单语语料 | 第43-46页 |
3.2.1 外部语言模型融合 | 第43-44页 |
3.2.2 自编码器方法 | 第44-45页 |
3.2.3 反向翻译方法 | 第45-46页 |
3.3 针对半监督神经机器翻译的联合训练方法 | 第46-50页 |
3.3.1 联合训练算法 | 第46-48页 |
3.3.2 半监督目标函数定义 | 第48-50页 |
3.4 实验与分析 | 第50-56页 |
3.4.1 实验设置 | 第50-52页 |
3.4.2 NIST数据集上的实验结果 | 第52-53页 |
3.4.3 WMT数据集上的实验结果 | 第53-55页 |
3.4.4 联合训练过程分析 | 第55页 |
3.4.5 翻译实例分析 | 第55-56页 |
3.5 相关工作 | 第56-57页 |
3.6 本章小结 | 第57-58页 |
第4章 基于双向解码一致性的模型正则化方法 | 第58-76页 |
4.1 引言 | 第58-59页 |
4.2 暴露偏差问题 | 第59-61页 |
4.3 基于双向解码一致性的模型正则化方法 | 第61-66页 |
4.3.1 引入KL散度正则项 | 第62-65页 |
4.3.2 双向解码模型联合训练 | 第65-66页 |
4.4 半监督场景上的应用 | 第66-67页 |
4.5 实验与分析 | 第67-74页 |
4.5.1 实验设置 | 第67-69页 |
4.5.2 NIST数据集上的实验结果 | 第69-70页 |
4.5.3 WMT数据集上的实验结果 | 第70-71页 |
4.5.4 半监督场景上的实验结果 | 第71-72页 |
4.5.5 模型训练过程分析 | 第72-73页 |
4.5.6 翻译实例分析 | 第73-74页 |
4.6 相关工作 | 第74页 |
4.7 本章小结 | 第74-76页 |
第5章 统计机器翻译作为后验正则的无监督训练方法 | 第76-103页 |
5.1 引言 | 第76-78页 |
5.2 无监督神经机器翻译 | 第78-80页 |
5.2.1 跨语言词向量 | 第79-80页 |
5.2.2 无监督训练框架 | 第80页 |
5.3 后验正则训练框架 | 第80-81页 |
5.4 统计机器翻译作为后验正则的无监督训练方法 | 第81-85页 |
5.4.1 模型初始化 | 第82-83页 |
5.4.2 利用统计机器翻译作为后验正则 | 第83-85页 |
5.4.3 整体训练算法 | 第85页 |
5.5 实验与分析 | 第85-92页 |
5.5.1 实验设置 | 第85-88页 |
5.5.2 WMT数据集上的实验结果 | 第88-89页 |
5.5.3 模型训练过程分析 | 第89页 |
5.5.4 初始化阶段分析 | 第89-91页 |
5.5.5 翻译实例分析 | 第91-92页 |
5.6 在语言风格迁移任务上的应用 | 第92-100页 |
5.6.1 语言风格迁移 | 第92-93页 |
5.6.2 无监督训练 | 第93-96页 |
5.6.3 实验结果 | 第96-100页 |
5.7 相关工作 | 第100-101页 |
5.8 本章小结 | 第101-103页 |
第6章 总结与展望 | 第103-105页 |
参考文献 | 第105-118页 |
致谢 | 第118-120页 |
在读期间发表的学术论文与取得的研究成果 | 第120-122页 |