首页--语言、文字论文--语言学论文--应用语言学论文--机器翻译论文

神经机器翻译网络结构建模研究

摘要第4-6页
Abstract第6-7页
第一章 绪论第12-22页
    1.1 研究的背景和意义第12-14页
    1.2 神经机器翻译的研究现状第14-18页
    1.3 论文的研究内容第18-19页
    1.4 论文的组织结构第19-22页
第二章 神经机器翻译第22-34页
    2.1 词嵌入第22-23页
    2.2 循环神经网络第23-26页
    2.3 注意机制第26-28页
    2.4 神经机器翻译第28-30页
    2.5 模型优化第30-31页
    2.6 柱搜索解码第31-33页
    2.7 本章小结第33-34页
第三章 基于上下文感知编码器的神经机器翻译第34-46页
    3.1 引言第34-35页
    3.2 上下文感知的循环编码器第35-37页
    3.3 实验结果及分析第37-44页
        3.3.1 实验数据第37页
        3.3.2 实验设置第37-38页
        3.3.3 实验结果第38-42页
        3.3.4 词对齐实验第42-43页
        3.3.5 实例分析第43-44页
    3.4 本章小结第44-46页
第四章 基于循环网络注意机制的神经机器翻译第46-58页
    4.1 引言第46-47页
    4.2 基于循环神经网络的注意机制第47-48页
    4.3 实验结果及分析第48-56页
        4.3.1 实验数据第48-49页
        4.3.2 实验设置第49页
        4.3.3 实验结果第49-54页
        4.3.4 模型集成第54-55页
        4.3.5 模型分析第55-56页
    4.4 本章小结第56-58页
第五章 基于隐变量变分解码器的神经机器翻译第58-70页
    5.1 引言第58-59页
    5.2 背景介绍第59-61页
    5.3 基于隐变量的变分解码器第61-64页
        5.3.1 变分先验模型第62页
        5.3.2 变分后验模型第62-63页
        5.3.3 变分解码器模型第63页
        5.3.4 模型训练第63-64页
    5.4 实验结果与分析第64-69页
        5.4.1 实验数据第64-65页
        5.4.2 实验设置第65页
        5.4.3 实验结果第65-68页
        5.4.4 实例分析第68-69页
    5.5 本章小结第69-70页
第六章 总结与展望第70-72页
    6.1 总结第70-71页
    6.2 展望第71-72页
参考文献第72-81页
硕士期间发表学术论文情况第81-83页
致谢第83-84页

论文共84页,点击 下载论文
上一篇:基于通道剪枝的模型压缩和加速算法研究
下一篇:一种新的邻域重构法及其在机器学习中的应用