基于深度学习的视频运动目标检测与搜索
摘要 | 第4-5页 |
abstract | 第5页 |
专用术语注释表 | 第8-9页 |
第一章 绪论 | 第9-15页 |
1.1 课题研究的背景和意义 | 第9-10页 |
1.2 视频目标检测概述 | 第10-11页 |
1.2.1 视频目标检测基本概念 | 第10页 |
1.2.2 视频目标检测方法 | 第10-11页 |
1.3 视频目标搜索概述 | 第11-13页 |
1.3.1 视频目标搜索基本概念 | 第11-12页 |
1.3.2 视频目标搜索方法 | 第12-13页 |
1.4 课题研究思路和创新点 | 第13页 |
1.5 论文主要研究工作及结构 | 第13-15页 |
第二章 相关工作 | 第15-24页 |
2.1 视频的预处理 | 第15-16页 |
2.1.1 镜头分割 | 第15-16页 |
2.1.2 关键帧提取 | 第16页 |
2.1.3 RGB颜色通道提取 | 第16页 |
2.2 CNN在视频图像识别中的应用 | 第16-18页 |
2.2.1 CNN的网络结构 | 第17页 |
2.2.2 CNN的算法原理 | 第17-18页 |
2.3 目标候选区域提取算法 | 第18-20页 |
2.3.1 SlidingWindow算法 | 第19页 |
2.3.2 SelectiveSearch算法 | 第19页 |
2.3.3 EdgeBox算法 | 第19-20页 |
2.4 RNN在基于文本的目标搜索中的应用 | 第20-23页 |
2.4.1 RNN的网络结构 | 第20-21页 |
2.4.2 RNN的算法原理 | 第21-22页 |
2.4.3 GRU神经网络 | 第22-23页 |
2.5 本章小结 | 第23-24页 |
第三章 基于卷积神经网络的视频目标定位检测 | 第24-35页 |
3.1 问题描述 | 第24-25页 |
3.2 基于边界框概率的卷积神经网络定位模型 | 第25-29页 |
3.2.1 边界框概率预测原理 | 第25页 |
3.2.2 边界框概率表示法 | 第25-27页 |
3.2.3 基于深度卷积神经网的定位模型框架设计 | 第27-29页 |
3.3 视频目标的定位检测算法流程设计 | 第29-31页 |
3.4 实验与结果分析 | 第31-33页 |
3.4.1 实验设计 | 第31页 |
3.4.2 结果分析 | 第31-33页 |
3.5 本章小结 | 第33-35页 |
第四章 基于时空双流的视频人物动作检测 | 第35-44页 |
4.1 问题描述 | 第35页 |
4.2 基于时空双流的融合特征提取 | 第35-38页 |
4.2.1 空间流卷积神经网络 | 第36页 |
4.2.2 时间流卷积神经网络 | 第36-37页 |
4.2.3 时空特征融合策略 | 第37-38页 |
4.3 基于3D卷积神经网络的人物动作检测 | 第38-40页 |
4.3.1 整体框架设计 | 第38-40页 |
4.3.2 3D卷积神经网络动作检测 | 第40页 |
4.4 实验与结果分析 | 第40-43页 |
4.4.1 实验设计 | 第40-41页 |
4.4.2 结果分析 | 第41-43页 |
4.5 本章小结 | 第43-44页 |
第五章 基于循环神经网络的视频目标自然语言搜索 | 第44-52页 |
5.1 问题描述 | 第44页 |
5.2 基于GRU自然语言搜索模型框架设计 | 第44-46页 |
5.3 SGRC模型的迁移学习 | 第46-49页 |
5.3.1 图片文本描述数据集上的预训练 | 第47-48页 |
5.3.2 图像目标自然语言搜索数据集上的微调 | 第48-49页 |
5.4 实验与结果分析 | 第49-51页 |
5.4.1 实验设计 | 第49-50页 |
5.4.2 结果分析 | 第50-51页 |
5.5 本章小结 | 第51-52页 |
第六章 总结与展望 | 第52-54页 |
6.1 工作总结 | 第52-53页 |
6.2 工作展望 | 第53-54页 |
参考文献 | 第54-59页 |
附录1 攻读硕士学位期间撰写的论文 | 第59-60页 |
附录2 攻读硕士学位期间申请的专利 | 第60-61页 |
附录3 攻读硕士学位期间参加的科研项目 | 第61-62页 |
致谢 | 第62页 |