摘要 | 第3-4页 |
Abstract | 第4-5页 |
1 绪论 | 第9-18页 |
1.1 研究背景及意义 | 第9-10页 |
1.2 国内外研究现状 | 第10-15页 |
1.2.1 基于表征方式的方法 | 第11页 |
1.2.2 基于全局模型的方法 | 第11-12页 |
1.2.3 基于局部分块模型的方法 | 第12-13页 |
1.2.4 基于判别分类的方法 | 第13-15页 |
1.3 存在的问题与挑战 | 第15页 |
1.4 本文的主要工作及内容安排 | 第15-18页 |
2 视觉目标跟踪基本框架与理论方法 | 第18-26页 |
2.1 引言 | 第18页 |
2.2 视觉目标跟踪的基本框架 | 第18-21页 |
2.2.1 视觉表征 | 第18-19页 |
2.2.2 观测模型 | 第19页 |
2.2.3 目标定位 | 第19-20页 |
2.2.4 模型更新策略 | 第20-21页 |
2.3 基本理论方法 | 第21-23页 |
2.3.1 卡尔曼滤波 | 第21-22页 |
2.3.2 均值漂移算法 | 第22页 |
2.3.3 贝叶斯滤波 | 第22-23页 |
2.4 数据集及评价方法 | 第23-25页 |
2.4.1 数据集 | 第23-24页 |
2.4.2 评价方法 | 第24-25页 |
2.5 总结 | 第25-26页 |
3 基于多特征融合的尺度自适应视觉目标跟踪 | 第26-46页 |
3.1 引言 | 第26-27页 |
3.2 CSK视觉目标跟踪算法 | 第27-31页 |
3.2.1 线性回归 | 第27页 |
3.2.2 循环偏移和循环矩阵 | 第27-29页 |
3.2.3 检测器的快速训练与检测 | 第29-30页 |
3.2.4 核函数矩阵的快速计算 | 第30-31页 |
3.3 多特征融合与尺度自适应 | 第31-36页 |
3.3.1 颜色与形状特征提取 | 第31-34页 |
3.3.2 多特征融合与模型更新 | 第34-35页 |
3.3.3 尺度检测算法 | 第35-36页 |
3.4 多检测器框架 | 第36-37页 |
3.5 基于多特征融合的尺度自适应视觉目标跟踪算法 | 第37-38页 |
3.6 实验及结果分析 | 第38-45页 |
3.6.1 实验设置 | 第38页 |
3.6.2 实验结果 | 第38-39页 |
3.6.3 表征对比实验 | 第39页 |
3.6.4 基于属性的评估实验 | 第39-41页 |
3.6.5 多检测器模型更正实验 | 第41-42页 |
3.6.6 定量分析实验 | 第42-45页 |
3.7 总结 | 第45-46页 |
4 基于深度回归网络的尺度自适应视觉目标跟踪 | 第46-59页 |
4.1 引言 | 第46-47页 |
4.2 CaffeNet模型介绍 | 第47-48页 |
4.3 基于深度回归网络的尺度检测算法 | 第48-51页 |
4.3.1 尺度检测网络框架 | 第48-49页 |
4.3.2 尺度检测网络输入和输出 | 第49页 |
4.3.3 运动平滑规律 | 第49-50页 |
4.3.4 尺度检测网络训练 | 第50-51页 |
4.4 基于深度回归网络的尺度自适应视觉目标跟踪算法 | 第51-52页 |
4.5 实验 | 第52-58页 |
4.5.1 训练数据集 | 第52-53页 |
4.5.2 实验设置 | 第53-54页 |
4.5.3 实验结果 | 第54-55页 |
4.5.4 基于属性的评估实验 | 第55-56页 |
4.5.5 尺度检测性能评估 | 第56-58页 |
4.6 总结 | 第58-59页 |
5 总结与展望 | 第59-61页 |
5.1 总结 | 第59-60页 |
5.2 展望 | 第60-61页 |
致谢 | 第61-62页 |
参考文献 | 第62-68页 |
附录 | 第68页 |