摘要 | 第4-5页 |
abstract | 第5页 |
专用术语注释表 | 第8-9页 |
第一章 绪论 | 第9-12页 |
1.1 课题研究背景及意义 | 第9-10页 |
1.2 课题来源与组织结构 | 第10-12页 |
第二章 相关技术研究 | 第12-22页 |
2.1 深度学习概述 | 第12-17页 |
2.1.1 反向传播算法 | 第12-15页 |
2.1.2 卷积神经网络 | 第15-16页 |
2.1.3 LSTM | 第16-17页 |
2.2 基于无监督和自监督的视频帧间特征学习研究现状 | 第17-19页 |
2.3 基于深度学习的视频语义描述的研究现状 | 第19-21页 |
2.4 本章小结 | 第21-22页 |
第三章 基于深度学习的视频语义描述系统总体设计 | 第22-30页 |
3.1 设计目标 | 第22-24页 |
3.1.1 系统功能需求 | 第22-24页 |
3.1.2 系统性能要求 | 第24页 |
3.2 系统总体设计 | 第24-27页 |
3.2.1 系统功能设计 | 第25-27页 |
3.2.2 系统处理流程 | 第27页 |
3.3 系统架构 | 第27-29页 |
3.4 本章小结 | 第29-30页 |
第四章 基于3D卷积的视频错帧筛选方法 | 第30-41页 |
4.1 顺序验证模型概述 | 第30-32页 |
4.2 改进的顺序验证模型——错帧筛选模型 | 第32-33页 |
4.3 视频帧采样 | 第33-36页 |
4.3.1 帧融合 | 第34页 |
4.3.2 色彩流 | 第34-35页 |
4.3.3 运动流 | 第35页 |
4.3.4 关键帧提取 | 第35-36页 |
4.3.5 多分流结构模型 | 第36页 |
4.4 视频帧编码 | 第36-37页 |
4.5 实验分析 | 第37-40页 |
4.5.1 数据集 | 第37-38页 |
4.5.2 实验结果 | 第38-40页 |
4.6 本章小结 | 第40-41页 |
第五章 基于LSTM的视频语义描述实现机制 | 第41-52页 |
5.1 超帧分割 | 第41-42页 |
5.2 视频语义描述模型 | 第42-46页 |
5.2.1 传统端到端的视频语义描述模型 | 第42-44页 |
5.2.2 改进的端到端视频语义描述模型 | 第44-46页 |
5.3 文本摘要 | 第46-49页 |
5.3.1 摘要度量标准 | 第48-49页 |
5.4 实验分析 | 第49-51页 |
5.4.1 数据集 | 第49页 |
5.4.2 实验结果 | 第49-51页 |
5.5 本章小结 | 第51-52页 |
第六章 系统测试 | 第52-63页 |
6.1 测试需求 | 第52页 |
6.2 测试环境 | 第52-56页 |
6.2.1 软、硬件环境 | 第53页 |
6.2.2 系统搭建 | 第53-56页 |
6.3 系统功能测试 | 第56-62页 |
6.3.1 软件启动 | 第56页 |
6.3.2 文件选择 | 第56-58页 |
6.3.3 实时检测 | 第58-59页 |
6.3.4 目标识别 | 第59-60页 |
6.3.5 视频语义描述 | 第60-62页 |
6.4 本章小结 | 第62-63页 |
第七章 总结与展望 | 第63-65页 |
7.1 总结 | 第63-64页 |
7.2 展望 | 第64-65页 |
参考文献 | 第65-69页 |
附录1 攻读硕士学位期间撰写的论文 | 第69-70页 |
附录2 攻读硕士学位期间申请的专利 | 第70-71页 |
附录3 攻读硕士学位期间参加的科研项目 | 第71-72页 |
致谢 | 第72页 |