首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--翻译机论文

神经机器翻译中循环注意力机制的改进研究

摘要第4-5页
Abstract第5-6页
第一章 绪论第12-24页
    1.1 研究的背景和意义第12-13页
    1.2 国内外相关研究第13-20页
        1.2.1 神经网络的翻译模型第13-15页
        1.2.2 注意力机制的翻译模型第15-17页
        1.2.3 时序注意力机制的翻译模型第17-19页
        1.2.4 交互式注意力机制的翻译模型第19页
        1.2.5 引入覆盖机制的翻译模型第19-20页
    1.3 本文主要工作第20-21页
    1.4 本文的组织结构第21-24页
第二章 基准模型与理论基础第24-38页
    2.1 引言第24页
    2.2 基准模型第24-28页
        2.2.1 基准模型的设计思路第24-25页
        2.2.2 基准模型的结构第25-27页
        2.2.3 基准模型的优缺点第27-28页
    2.3 循环神经网络第28-34页
        2.3.1 循环神经网络RNN第28-30页
        2.3.2 循环神经网络的训练第30页
        2.3.3 长短时记忆网络LSTM第30-33页
        2.3.4 循环门控单元GRU第33-34页
    2.4 相关理论第34-37页
        2.4.1 门机制的设计第34-35页
        2.4.2 双向编码器第35-37页
        2.4.3 柱搜索算法第37页
    2.5 本章小节第37-38页
第三章 引入自动边界调控的循环注意力机制第38-52页
    3.1 引言第38-39页
    3.2 模型具体设计思路第39-40页
    3.3 基于门机制的自动边界第40-41页
    3.4 调控模型设计第41-46页
        3.4.1 对称边界模型第42-43页
        3.4.2 非对称边界模型第43-45页
        3.4.3 两种边界模型对比第45-46页
    3.5 实验结果与分析第46-50页
        3.5.1 实验设置第46-48页
        3.5.2 实验结果第48-50页
    3.6 本章小结第50-52页
第四章 引入权重控制的循环注意力机制第52-64页
    4.1 引言第52-53页
    4.2 模型设计思路第53-54页
    4.3 调控模型设计第54-58页
        4.3.1 历史注意力调控模型第54-56页
        4.3.2 非对称边界-历史注意力调控模型第56-58页
    4.4 实验结果与分析第58-62页
        4.4.1 实验设置第58-59页
        4.4.2 实验结果第59-62页
    4.5 本章小结第62-64页
第五章 总结与展望第64-66页
    5.1 本文的主要贡献第64-65页
    5.2 未来的研究方向第65-66页
参考文献第66-70页
致谢第70-71页

论文共71页,点击 下载论文
上一篇:基于多约束优化的建筑物三维重建方法
下一篇:基于均方差的肺部图像配准算法研究