首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于深度神经网络的视频描述研究

摘要第5-6页
Abstract第6-7页
第一章 绪论第11-21页
    1.1 研究背景及意义第11-12页
    1.2 国内外研究现状第12-17页
    1.3 视频描述的难点与挑战第17-18页
    1.4 本文主要创新点第18-19页
    1.5 本文结构安排第19-21页
第二章 深度神经网络的相关理论知识第21-40页
    2.1 反向传播算法第21-23页
    2.2 卷积神经网络第23-32页
        2.2.1 CNN概述第24-27页
        2.2.2 训练方法第27-29页
        2.2.3 常见网络第29-31页
        2.2.4 主要应用第31-32页
    2.3 递归神经网络第32-37页
        2.3.1 RNN概述第32-33页
        2.3.2 训练方法第33-34页
        2.3.3 扩展网络第34-36页
        2.3.4 主要应用第36-37页
    2.4 典型的优化算法及训练技巧第37-38页
        2.4.1 优化算法第37页
        2.4.2 训练技巧第37-38页
    2.5 本章小结第38-40页
第三章 视频描述的技术基础和核心问题第40-49页
    3.1 编码器-解码器框架第40-42页
    3.2 注意力机制第42-44页
    3.3 文本质量评价方法第44-48页
    3.4 本章小结第48-49页
第四章 基于时序注意力机制的视频描述方法第49-62页
    4.1 视频特征提取第49-51页
    4.2 时序注意力机制第51-52页
    4.3 视频描述语句生成第52-54页
        4.3.1 基于LSTM变种网络的解码器第52-54页
        4.3.2 波束搜索第54页
    4.4 实验与结果分析第54-61页
        4.4.1 数据集与评价指标第54-56页
        4.4.2 实验设定第56-57页
        4.4.3 实验及结果分析第57-61页
    4.5 本章小结第61-62页
第五章 结合丰富语义信息和时空注意力的视频描述方法第62-81页
    5.1 多特征融合第62-67页
        5.1.1 场景信息第63-64页
        5.1.2 光流特征第64-65页
        5.1.3 融合视觉特征第65-66页
        5.1.4 实验及结果分析第66-67页
    5.2 双向LSTM编码器第67-70页
        5.2.1 基于双向LSTM编码器的视频描述方法第67-69页
        5.2.2 实验及结果分析第69-70页
    5.3 时空注意力机制第70-72页
        5.3.1 基于时空注意力机制的视频描述方法第70-72页
        5.3.2 实验及结果分析第72页
    5.4 基于长度归一化的波束搜索第72-74页
        5.4.1 长度归一化处理第72-73页
        5.4.2 实验及结果分析第73-74页
    5.5 结合丰富语义信息和时空注意力机制的视频描述模型第74-79页
        5.5.1 结合丰富语义信息和时空注意力机制第75-76页
        5.5.2 对比主流方法第76-78页
        5.5.3 定性分析第78-79页
    5.6 本章小结第79-81页
第六章 总结与展望第81-83页
    6.1 总结第81-82页
    6.2 展望第82-83页
参考文献第83-92页
攻读硕士学位期间取得的研究成果第92-94页
致谢第94-95页
附件第95页

论文共95页,点击 下载论文
上一篇:基于点线特征的RGB-D SLAM系统研究
下一篇:基于深度学习的联机手写汉字分析与识别