基于循环神经网络的短序列机器翻译方法研究
| 摘要 | 第4-5页 |
| ABSTRACT | 第5页 |
| 第1章 绪论 | 第8-15页 |
| 1.1 研究背景和意义 | 第8-9页 |
| 1.2 国内外研究现状 | 第9-13页 |
| 1.2.1 统计机器翻译 | 第9-10页 |
| 1.2.2 神经机器翻译 | 第10-13页 |
| 1.3 本文研究内容 | 第13-14页 |
| 1.4 本文组织结构 | 第14-15页 |
| 第2章 机器翻译概述 | 第15-23页 |
| 2.1 机器翻译基本流程 | 第15页 |
| 2.2 语料预处理 | 第15-18页 |
| 2.2.1 英文分词算法 | 第16页 |
| 2.2.2 中文分词算法 | 第16-18页 |
| 2.3 词对齐 | 第18-19页 |
| 2.4 翻译规则学习 | 第19-21页 |
| 2.5 权重调优 | 第21页 |
| 2.6 解码 | 第21-22页 |
| 2.7 本章小结 | 第22-23页 |
| 第3章 短序列神经机器翻译模型 | 第23-40页 |
| 3.1 编码器-解码器框架 | 第23-24页 |
| 3.2 词向量生成 | 第24-30页 |
| 3.2.1 独热编码 | 第24-25页 |
| 3.2.2 词嵌入 | 第25-26页 |
| 3.2.3 CRNN-embed词向量生成 | 第26-29页 |
| 3.2.4 解码器词向量生成 | 第29-30页 |
| 3.3 语言模型 | 第30-34页 |
| 3.3.1 统计语言模型 | 第30-31页 |
| 3.3.2 神经网络语言模型 | 第31-33页 |
| 3.3.3 解码器语言模型 | 第33-34页 |
| 3.4 基于全局信息的词对齐 | 第34-37页 |
| 3.5 输出模块 | 第37-38页 |
| 3.6 翻译模型架构 | 第38-39页 |
| 3.7 本章小结 | 第39-40页 |
| 第4章 双语字幕翻译模型的设计及实现 | 第40-52页 |
| 4.1 数据集的收集处理 | 第40-43页 |
| 4.1.1 字幕压缩包的收集整理 | 第40-41页 |
| 4.1.2 数据预处理 | 第41-43页 |
| 4.2 模型训练与参数设置 | 第43-45页 |
| 4.2.1 批处理及优化 | 第43-44页 |
| 4.2.2 参数初始化 | 第44-45页 |
| 4.2.3 Early Stopping | 第45页 |
| 4.3 实验设计 | 第45-51页 |
| 4.3.1 实验环境 | 第45页 |
| 4.3.2 评价指标 | 第45-46页 |
| 4.3.3 实验结果与分析 | 第46-51页 |
| 4.4 本章小结 | 第51-52页 |
| 结论 | 第52-53页 |
| 参考文献 | 第53-59页 |
| 致谢 | 第59页 |