首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--文字信息处理论文

基于改进seq2seq模型的英汉翻译研究

摘要第4-5页
Abstract第5-6页
1 绪论第9-13页
    1.1 研究背景与意义第9页
    1.2 研究现状及趋势第9-11页
    1.3 论文的研究内容第11-12页
    1.4 论文的章节结构第12-13页
2 相关技术介绍第13-27页
    2.1 统计机器翻译第13-15页
        2.1.1 词对齐第13-14页
        2.1.2 语言模型第14-15页
    2.2 神经机器翻译第15-23页
        2.2.1 深度学习与循环神经网络第15-17页
        2.2.2 LSTM与GRU第17-19页
        2.2.3 seq2seq模型第19-21页
        2.2.4 注意力机制第21-23页
    2.3 翻译系统的评估第23-26页
        2.3.1 语言模型评估Perplexity第23-24页
        2.3.2 翻译系统评估BLEU第24-26页
    2.4 本章小结第26-27页
3 数据收集与预处理第27-33页
    3.1 数据集介绍第27-28页
    3.2 数据预处理第28-31页
        3.2.1 数据分析第28-29页
        3.2.2 中文语料预处理第29-31页
        3.2.3 英文语料预处理第31页
    3.3 预训练的词向量第31-32页
    3.4 本章小结第32-33页
4 基于改进seq2seq模型的神经机器翻译第33-42页
    4.1 现有模型介绍第33-34页
        4.1.1 基于seq2seq模型的神经机器翻译第33-34页
        4.1.2 基于注意力机制的seq2seq模型的神经机器翻译第34页
    4.2 基于改进seq2seq模型的神经机器翻译第34-40页
        4.2.1 不同的中文文本预处理方法第34-35页
        4.2.2 不同的嵌入层参数初始化方法第35-37页
        4.2.3 转换层第37-40页
    4.3 本章小结第40-42页
5 实验第42-55页
    5.1 实验设置第42页
    5.2 模型实现与实验结果分析第42-52页
        5.2.1 模型1-基于seq2seq模型的神经机器翻译第43-45页
        5.2.2 模型2-基于注意力机制的seq2seq模型第45-48页
        5.2.3 模型3-不同的中文文本预处理方法第48-49页
        5.2.4 模型4-不同的嵌入层参数初始化方法第49-51页
        5.2.5 模型5-转换层第51-52页
    5.3 实验结论第52-55页
6 总结与展望第55-57页
    6.1 本文工作总结第55-56页
    6.2 展望第56-57页
参考文献第57-61页
致谢第61-62页

论文共62页,点击 下载论文
上一篇:知假买假的法律适用研究
下一篇:一个MEN 2A家系的RET原癌基因突变研究