基于深度学习的视频跟踪技术研究
| 摘要 | 第5-6页 |
| Abstract | 第6页 |
| 第1章 绪论 | 第9-14页 |
| 1.1 选题背景及意义 | 第9-10页 |
| 1.2 国内外研究现状 | 第10-12页 |
| 1.3 本文的主要工作及内容安排 | 第12-14页 |
| 第2章 视频跟踪技术 | 第14-21页 |
| 2.1 算法原理及分类 | 第14-17页 |
| 2.1.1 运动模型 | 第14-15页 |
| 2.1.2 特征提取 | 第15-16页 |
| 2.1.3 表征模型 | 第16-17页 |
| 2.1.4 更新预测 | 第17页 |
| 2.2 主流算法及存在的问题 | 第17-20页 |
| 2.2.1 主流跟踪算法 | 第18-19页 |
| 2.2.2 存在的问题和难点分析 | 第19-20页 |
| 2.3 本章小结 | 第20-21页 |
| 第3章 深度学习算法 | 第21-28页 |
| 3.1 深度学习简介 | 第21页 |
| 3.2 深度学习的主要模型 | 第21-26页 |
| 3.2.1 深度置信网络 | 第21-23页 |
| 3.2.2 堆栈自编码器 | 第23-25页 |
| 3.2.3 深度卷积神经网络 | 第25-26页 |
| 3.3 本章小结 | 第26-28页 |
| 第4章 深度学习在视频跟踪技术上的应用分析 | 第28-37页 |
| 4.1 基于SAE的视频跟踪算法 | 第28-30页 |
| 4.2 基于CNN的视频跟踪算法 | 第30-36页 |
| 4.2.1 只采用CNN的算法 | 第30-34页 |
| 4.2.2 结合传统跟踪算法 | 第34-36页 |
| 4.3 本章小结 | 第36-37页 |
| 第5章 基于卷积神经网络的视频跟踪技术 | 第37-56页 |
| 5.1 算法总流程 | 第37-38页 |
| 5.2 粒子滤波框架 | 第38-39页 |
| 5.3 深度学习模型 | 第39-43页 |
| 5.3.1 模型选择与结构分析 | 第39-40页 |
| 5.3.2 模型训练 | 第40-42页 |
| 5.3.3 特征提取 | 第42-43页 |
| 5.4 支持向量机 | 第43-44页 |
| 5.5 尺度空间方法 | 第44-46页 |
| 5.5.1 目标显著图 | 第44-45页 |
| 5.5.2 Lindeberg尺度空间理论 | 第45-46页 |
| 5.6 算法实现 | 第46-50页 |
| 5.7 实验结果与分析 | 第50-55页 |
| 5.7.1 实验配置 | 第50页 |
| 5.7.2 跟踪效果分析 | 第50-53页 |
| 5.7.3 与传统跟踪算法的比较 | 第53-55页 |
| 5.8 本章小结 | 第55-56页 |
| 第6章 总结与展望 | 第56-58页 |
| 6.1 本文总结 | 第56-57页 |
| 6.2 研究展望 | 第57-58页 |
| 参考文献 | 第58-63页 |
| 攻读硕士学位期间发表的论文及其他成果 | 第63-64页 |
| 致谢 | 第64页 |