摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
第1章 绪论 | 第10-16页 |
1.1 课题背景及意义 | 第10-11页 |
1.2 国内外研究现状 | 第11-13页 |
1.3 本文主要研究成果 | 第13-14页 |
1.4 本文组织结构 | 第14-16页 |
第2章 视觉运动目标跟踪理论基础 | 第16-24页 |
2.1 视频中运动物体跟踪的基本流程 | 第16页 |
2.2 视频图像特征描述 | 第16-22页 |
2.2.1 颜色特征 | 第17-19页 |
2.2.2 形状特征 | 第19-20页 |
2.2.3 纹理特征 | 第20-21页 |
2.2.4 空间关系特征 | 第21-22页 |
2.3 运动目标跟踪遇到的问题 | 第22-23页 |
2.4 本章小结 | 第23-24页 |
第3章 中层视觉线索描述的视频在线多目标跟踪算法 | 第24-34页 |
3.1 引言 | 第24-25页 |
3.2 系统组成框图 | 第25-26页 |
3.3 中层视觉线索描述的视频在线多目标跟踪算法 | 第26-29页 |
3.3.1 多目标中层视觉线索提取 | 第26-27页 |
3.3.2 基于中层视觉线索的多目标表观模型 | 第27-28页 |
3.3.3 目标跟踪过程 | 第28-29页 |
3.3.4 表观模型更新 | 第29页 |
3.4 实验仿真与分析 | 第29-33页 |
3.4.1 运动场景多目标实验 | 第29-31页 |
3.4.2 自建多行人遮挡实验 | 第31-32页 |
3.4.3 混合多目标跟踪实验 | 第32-33页 |
3.5 本章小结 | 第33-34页 |
第4章 意外模式下基于颜色属性的时空上下文鲁棒目标跟踪算法 | 第34-48页 |
4.1 引言 | 第34-35页 |
4.2 意外模式下基于颜色属性的时空上下文鲁棒目标跟踪算法 | 第35-41页 |
4.2.1 颜色主成分属性图像描述 | 第36-37页 |
4.2.2 基于颜色主成分属性图像描述意外模式的判断 | 第37-38页 |
4.2.3 基于颜色主成分属性时空上下文目标跟踪算法 | 第38-40页 |
4.2.4 意外模式下的更新机制 | 第40-41页 |
4.3 实验仿真结果与分析 | 第41-46页 |
4.3.1 跟踪性能评估 | 第41页 |
4.3.2 girl实验 | 第41-43页 |
4.3.3 bird实验 | 第43-44页 |
4.3.4 OneShopOneWait2cor_BMP实验 | 第44-46页 |
4.4 本章小结 | 第46-48页 |
第5章 基于颜色属性的线性回归目标跟踪算法 | 第48-58页 |
5.1 引言 | 第48-49页 |
5.2 基于颜色属性的线性回归目标跟踪算法 | 第49-52页 |
5.2.1 特征提取 | 第50页 |
5.2.2 贝叶斯预测滤波算法框架 | 第50-51页 |
5.2.3 线性回归模型 | 第51-52页 |
5.2.4 跟踪器字典更新 | 第52页 |
5.3 实验仿真与分析 | 第52-56页 |
5.3.1 目标在视野范围内实验 | 第53-54页 |
5.3.2 目标在视野范围外实验 | 第54-56页 |
5.4 本章小结 | 第56-58页 |
结论 | 第58-60页 |
参考文献 | 第60-66页 |
致谢 | 第66页 |