首页--语言、文字论文--常用外国语论文--英语论文--写作、修辞论文--翻译论文

文档级神经机器翻译研究

中文摘要第4-6页
abstract第6-7页
第一章 绪论第11-16页
    1.1 研究背景及意义第11-12页
    1.2 研究现状第12-13页
    1.3 本文研究内容第13-14页
    1.4 论文组织结构第14-16页
第二章 相关知识介绍第16-23页
    2.1 基于注意力的神经机器翻译模型简介第16-20页
        2.1.1 编码器第16-17页
        2.1.2 解码器第17-18页
        2.1.3 注意力网络第18页
        2.1.4 训练目标函数第18-19页
        2.1.5 平行语料库第19页
        2.1.6 译文评测方法第19-20页
    2.2 最大熵模型介绍第20-21页
    2.3 主题模型第21-22页
    2.4 本章小结第22-23页
第三章 自动长句分割在神经机器翻译中的应用第23-37页
    3.1 引言第23-24页
    3.2 相关工作第24-25页
    3.3 分割模型第25-29页
        3.3.1 切分模型第25-27页
        3.3.2 切分模型训练第27-28页
        3.3.3 重新排序模型第28页
        3.3.4 重新排序模型训练第28-29页
        3.3.5 联合模型第29页
    3.4 实验设置与分析第29-36页
        3.4.1 实验设置第30-31页
        3.4.2 切分模型效果分析第31-32页
        3.4.3 重新排序模型效果分析第32页
        3.4.4 不同分割方式效果比较第32-33页
        3.4.5 长句翻译效果分析第33-36页
    3.5 本章小结第36-37页
第四章 融合句子间信息的文档级神经机器翻译模型第37-51页
    4.1 引言第37-38页
    4.2 相关工作第38-39页
    4.3 融合句间门控模型的神经机器翻译系统第39-41页
        4.3.1 编码器第39-40页
        4.3.2 句间门控模型第40-41页
        4.3.3 解码器第41页
    4.4 实验设置与分析第41-49页
        4.4.1 实验设置第42-43页
        4.4.2 实验结果第43-44页
        4.4.3 句间门控模型的有效性第44-46页
        4.4.4 句间门控模型的注意力网络第46-48页
        4.4.5 译文连贯性分析第48-49页
    4.5 本章小结第49-51页
第五章 基于缓存的文档级神经机器翻译模型第51-62页
    5.1 引言第51-52页
    5.2 相关工作第52-53页
    5.3 基于缓存的神经机器翻译系统第53-57页
        5.3.1 动态缓存和主题缓存第53-55页
        5.3.2 基于缓存的神经模型第55-56页
        5.3.3 解码过程第56-57页
    5.4 实验设置与分析第57-61页
        5.4.1 实验设置第57-58页
        5.4.2 实验结果第58-59页
        5.4.3 门控机制的有效性第59页
        5.4.4 主题缓存的有效性第59-60页
        5.4.5 基于缓存的神经模型的有效性第60-61页
    5.5 本章小结第61-62页
第六章 总结与展望第62-64页
    6.1 工作总结第62-63页
    6.2 研究展望第63-64页
参考文献第64-71页
攻读硕士学位期间取得的科研成果第71页
攻读硕士学位期间参与的科研项目第71-72页
致谢第72-73页

论文共73页,点击 下载论文
上一篇:卡特福德翻译转换理论指导下的联合国文献翻译策略--以《1997联合国年鉴快车》翻译为例
下一篇:《2016江苏省年鉴》(第十二章)翻译项目报告