首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--翻译机论文

神经机器翻译模型的实现验证及其剪枝压缩

摘要第4-6页
Abstract第6-7页
第一章 绪论第14-19页
    1.1 研究背景及意义第14-15页
    1.2 国内外发展现状第15-17页
    1.3 主要研究内容第17-18页
    1.4 本文组织结构第18-19页
第二章 基于LSTM的神经机器翻译模型第19-34页
    2.1 循环神经网络第19-21页
    2.2 长短时记忆网络第21-24页
    2.3 Seq2Seq模型第24-25页
    2.4 注意力机制第25-29页
    2.5 模型压缩方法第29-32页
        2.5.1 剪枝第29-30页
        2.5.2 量化第30-31页
        2.5.3 知识蒸馏第31-32页
    2.6 本章小结第32-34页
第三章 神经机器翻译模型及其剪枝优化第34-57页
    3.1 深度学习框架PyTorch第34-36页
        3.1.1 张量第34-35页
        3.1.2 自动求导机制与Variable第35-36页
        3.1.3 PyTorch中的长短时记忆网络API第36页
    3.2 PyTorch中的Seq2Seq模型实现第36-41页
        3.2.1 Encoder第36-38页
        3.2.2 Decoder第38-39页
        3.2.3 包含注意力机制的Decoder第39-41页
    3.3 OpenNMT语言模型第41-50页
        3.3.1 数据预处理第41-42页
        3.3.2 训练模块第42-44页
        3.3.3 翻译模块第44-46页
        3.3.4 BLEU算法第46-49页
        3.3.5 集束搜索算法第49-50页
    3.4 神经机器翻译模型的剪枝优化第50-56页
        3.4.1 Seq2Seq模型的权值类型第50-51页
        3.4.2 权值剪枝第51-53页
        3.4.3 权值剪枝的实现第53-54页
        3.4.4 剪枝模型的重新训练第54-56页
    3.5 本章小结第56-57页
第四章 实验与分析第57-67页
    4.1 硬件环境第57页
    4.2 数据集介绍第57-58页
    4.3 实验第58-65页
        4.3.1 普通Seq2Seq模型的运行结果第58-60页
        4.3.2 不同剪枝类型的效果对比第60-61页
        4.3.3 分类剪枝第61-63页
        4.3.4 剪枝模型的重新训练第63-64页
        4.3.5 剪枝-重新训练过程的迭代第64-65页
    4.4 普遍性测试第65页
    4.5 本章小结第65-67页
第五章 总结与展望第67-70页
    5.1 总结第67-68页
    5.2 展望第68-70页
参考文献第70-74页
攻读硕士学位期间的工作和成果第74-75页
致谢第75-77页

论文共77页,点击 下载论文
上一篇:具有高视觉质量特性的可逆信息隐藏算法
下一篇:时空和跨模态一致性的低秩稀疏分解运动目标检测