基于深度神经网络的中英机器翻译模型研究
摘要 | 第6-7页 |
Abstract | 第7-8页 |
第1章 绪论 | 第11-19页 |
1.1 研究背景与意义 | 第11-12页 |
1.2 国内外研究现状 | 第12-17页 |
1.2.1 基于规则的机器翻译 | 第12-13页 |
1.2.2 基于实例的机器翻译 | 第13页 |
1.2.3 统计机器翻译 | 第13-15页 |
1.2.4 神经机器翻译 | 第15-17页 |
1.3 论文研究内容及章节安排 | 第17-19页 |
1.3.1 研究内容 | 第17页 |
1.3.2 章节安排 | 第17-19页 |
第2章 神经网络相关技术介绍 | 第19-27页 |
2.1 激活函数 | 第19-20页 |
2.1.1 sigmoid函数 | 第19-20页 |
2.1.2 tanh函数 | 第20页 |
2.2 随机梯度下降算法 | 第20-23页 |
2.2.1 梯度下降相关概念 | 第21页 |
2.2.2 梯度下降法描述 | 第21-22页 |
2.2.3 随机梯度下降法 | 第22-23页 |
2.2.4 算法调优 | 第23页 |
2.3 柱搜索算法 | 第23-24页 |
2.4 Dropout | 第24-25页 |
2.5 评价标准 | 第25页 |
2.6 本章小结 | 第25-27页 |
第3章 词向量生成 | 第27-39页 |
3.1 词向量表示 | 第27-28页 |
3.1.1 One-Hot表示 | 第27-28页 |
3.1.2 分布式表示的词向量 | 第28页 |
3.2 分词处理 | 第28-30页 |
3.3 词向量模型 | 第30-34页 |
3.3.1 Skip-gram模型 | 第30-32页 |
3.3.2 CBOW模型 | 第32-34页 |
3.4 模型优化 | 第34-35页 |
3.4.1 层序softmax | 第34-35页 |
3.4.2 负采样 | 第35页 |
3.5 词向量模型对比分析 | 第35-38页 |
3.6 本章小结 | 第38-39页 |
第4章 神经机器翻译模型研究 | 第39-53页 |
4.1 构建编码器-解码器框架 | 第39-42页 |
4.1.1 编码器 | 第40-41页 |
4.1.2 解码器 | 第41-42页 |
4.2 神经机器翻译模型 | 第42-47页 |
4.2.1 基于RNN的神经机器翻译 | 第42-45页 |
4.2.2 基于LSTM的神经机器翻译 | 第45-46页 |
4.2.3 基于GRU的神经机器翻译 | 第46-47页 |
4.3 融合注意力机制的翻译模型 | 第47-49页 |
4.4 基于双向GRU的翻译模型 | 第49-50页 |
4.5 实验对比分析 | 第50-52页 |
4.5.1 实验设置 | 第50-51页 |
4.5.2 实验结果 | 第51-52页 |
4.6 本章小结 | 第52-53页 |
第5章 加入词性序列信息的神经机器翻译 | 第53-59页 |
5.1 词性序列信息 | 第53-55页 |
5.2 加入词性序列信息的神经机器翻译 | 第55-56页 |
5.3 实验对比分析 | 第56-58页 |
5.3.1 实验设置 | 第56页 |
5.3.2 实验结果 | 第56-58页 |
5.4 本章小结 | 第58-59页 |
总结与展望 | 第59-61页 |
论文总结 | 第59页 |
工作展望 | 第59-61页 |
致谢 | 第61-62页 |
参考文献 | 第62-66页 |