基于循环神经网络的短序列机器翻译方法研究
摘要 | 第4-5页 |
ABSTRACT | 第5页 |
第1章 绪论 | 第8-15页 |
1.1 研究背景和意义 | 第8-9页 |
1.2 国内外研究现状 | 第9-13页 |
1.2.1 统计机器翻译 | 第9-10页 |
1.2.2 神经机器翻译 | 第10-13页 |
1.3 本文研究内容 | 第13-14页 |
1.4 本文组织结构 | 第14-15页 |
第2章 机器翻译概述 | 第15-23页 |
2.1 机器翻译基本流程 | 第15页 |
2.2 语料预处理 | 第15-18页 |
2.2.1 英文分词算法 | 第16页 |
2.2.2 中文分词算法 | 第16-18页 |
2.3 词对齐 | 第18-19页 |
2.4 翻译规则学习 | 第19-21页 |
2.5 权重调优 | 第21页 |
2.6 解码 | 第21-22页 |
2.7 本章小结 | 第22-23页 |
第3章 短序列神经机器翻译模型 | 第23-40页 |
3.1 编码器-解码器框架 | 第23-24页 |
3.2 词向量生成 | 第24-30页 |
3.2.1 独热编码 | 第24-25页 |
3.2.2 词嵌入 | 第25-26页 |
3.2.3 CRNN-embed词向量生成 | 第26-29页 |
3.2.4 解码器词向量生成 | 第29-30页 |
3.3 语言模型 | 第30-34页 |
3.3.1 统计语言模型 | 第30-31页 |
3.3.2 神经网络语言模型 | 第31-33页 |
3.3.3 解码器语言模型 | 第33-34页 |
3.4 基于全局信息的词对齐 | 第34-37页 |
3.5 输出模块 | 第37-38页 |
3.6 翻译模型架构 | 第38-39页 |
3.7 本章小结 | 第39-40页 |
第4章 双语字幕翻译模型的设计及实现 | 第40-52页 |
4.1 数据集的收集处理 | 第40-43页 |
4.1.1 字幕压缩包的收集整理 | 第40-41页 |
4.1.2 数据预处理 | 第41-43页 |
4.2 模型训练与参数设置 | 第43-45页 |
4.2.1 批处理及优化 | 第43-44页 |
4.2.2 参数初始化 | 第44-45页 |
4.2.3 Early Stopping | 第45页 |
4.3 实验设计 | 第45-51页 |
4.3.1 实验环境 | 第45页 |
4.3.2 评价指标 | 第45-46页 |
4.3.3 实验结果与分析 | 第46-51页 |
4.4 本章小结 | 第51-52页 |
结论 | 第52-53页 |
参考文献 | 第53-59页 |
致谢 | 第59页 |