基于深度神经网络的统计机器翻译模型研究
摘要 | 第4-5页 |
ABSTRACT | 第5页 |
第1章 绪论 | 第8-14页 |
1.1 研究背景和意义 | 第8-9页 |
1.2 国内外相关研究和综述 | 第9-12页 |
1.2.1 统计机器翻译方法 | 第9-10页 |
1.2.2 深度学习与自然语言处理 | 第10-12页 |
1.3 问题的总结与分析 | 第12页 |
1.4 本文主要工作 | 第12-13页 |
1.5 本文组织结构 | 第13-14页 |
第2章 传统统计机器翻译方法 | 第14-22页 |
2.1 双语数据预处理 | 第14-16页 |
2.1.1 分词 | 第14-15页 |
2.1.2 命名实体识别 | 第15页 |
2.1.3 特殊处理 | 第15-16页 |
2.2 词语对齐 | 第16-19页 |
2.2.1 单向词语对齐 | 第16页 |
2.2.2 词语对齐对称化 | 第16-19页 |
2.3 短语抽取 | 第19页 |
2.4 短语翻译表概率估计 | 第19-21页 |
2.4.1 双向短语翻译概率 | 第20页 |
2.4.2 双向词汇化翻译概率 | 第20-21页 |
2.5 本章小结 | 第21-22页 |
第3章 基于深度神经网络的机器翻译 | 第22-39页 |
3.1 源序列到目标序列的建模框架 | 第22-23页 |
3.2 词向量生成算法 | 第23-27页 |
3.2.1 基于One-hot的方法 | 第23-24页 |
3.2.2 基于分布式表征的方法 | 第24-25页 |
3.2.3 RNN-embed模型 | 第25-27页 |
3.3 语言模型改进算法 | 第27-32页 |
3.3.1 基于统计方法的语言模型 | 第28页 |
3.3.2 编码器语言模型 | 第28-32页 |
3.3.3 解码器语言模型 | 第32页 |
3.4 词对齐模型生成方法 | 第32-35页 |
3.5 输出模块生成算法 | 第35-38页 |
3.6 本章小结 | 第38-39页 |
第4章 中英字幕翻译系统的设计及实现 | 第39-52页 |
4.1 双语字幕数据采集 | 第39-40页 |
4.1.1 爬虫抓取技术 | 第39-40页 |
4.1.2 并行化处理 | 第40页 |
4.2 数据预处理 | 第40-43页 |
4.2.1 生成双语语料库 | 第41页 |
4.2.2 序列化方法 | 第41-43页 |
4.2.3 结构化处理 | 第43页 |
4.3 模型训练方法 | 第43-47页 |
4.3.1 参数设置 | 第44页 |
4.3.2 参数训练 | 第44-46页 |
4.3.3 GPU加速处理 | 第46-47页 |
4.4 实验结果与分析 | 第47-51页 |
4.5 本章小结 | 第51-52页 |
结论 | 第52-53页 |
参考文献 | 第53-58页 |
致谢 | 第58页 |