复杂环境下鲁棒目标跟踪方法
摘要 | 第5-7页 |
abstract | 第7-8页 |
第1章 绪论 | 第12-24页 |
1.1 目标跟踪方法的研究意义 | 第12-14页 |
1.2 目标跟踪方法的研究现状 | 第14-21页 |
1.2.1 目标跟踪方法分类 | 第14-15页 |
1.2.2 目标跟踪方法流程 | 第15-16页 |
1.2.3 目标跟踪方法现状 | 第16-21页 |
1.3 目标跟踪方法的难点与挑战 | 第21-23页 |
1.4 本文的主要内容以及章节安排 | 第23-24页 |
第2章 目标跟踪算法的基本理论 | 第24-36页 |
2.1 引言 | 第24页 |
2.2 摄影几何理论 | 第24-26页 |
2.3 滤波理论 | 第26-32页 |
2.3.1 状态空间和动态系统 | 第26-28页 |
2.3.2 卡尔曼滤波 | 第28-29页 |
2.3.3 粒子滤波 | 第29-32页 |
2.4 特征表示 | 第32-35页 |
2.4.1 局部特征与全局特征表示 | 第32页 |
2.4.2 基于深度学习的特征表示 | 第32-35页 |
2.5 本章小结 | 第35-36页 |
第3章 基于超像素和词袋模型的目标跟踪方法 | 第36-59页 |
3.1 引言 | 第36-37页 |
3.2 目标建模相关知识 | 第37-42页 |
3.2.1 亲密度传播聚类算法 | 第37-39页 |
3.2.2 词袋模型 | 第39-41页 |
3.2.3 稀疏表达 | 第41-42页 |
3.3 复杂背景下的目标建模 | 第42-49页 |
3.3.1 目标词袋构建 | 第43-46页 |
3.3.2 目标置信度估计 | 第46-49页 |
3.4 目标跟踪及模型更新 | 第49-52页 |
3.4.1 贝叶斯跟踪框架 | 第49-51页 |
3.4.2 模型在线更新方法 | 第51-52页 |
3.5 实验结果与分析 | 第52-58页 |
3.5.1 实验设置 | 第52-53页 |
3.5.2 实验结果与分析 | 第53-58页 |
3.6 本章小结 | 第58-59页 |
第4章 基于相关滤波器的多视角三维目标跟踪方法 | 第59-78页 |
4.1 引言 | 第59-60页 |
4.2 基于相关滤波器的目标跟踪方法 | 第60-66页 |
4.2.1 核化相关滤波跟踪器 | 第60-62页 |
4.2.2 空间正则化的相关滤波跟踪器 | 第62-64页 |
4.2.3 背景感知相关滤波器 | 第64-66页 |
4.3 多视角背景感知相关滤波器跟踪方法 | 第66-72页 |
4.3.1 多视角相机三维标定 | 第67-68页 |
4.3.2 多视角背景感知相关滤波器 | 第68-70页 |
4.3.3 跨相机目标跟踪与自适应模型更新 | 第70-72页 |
4.4 实验结果与分析 | 第72-76页 |
4.4.1 实验设置 | 第72-74页 |
4.4.2 实验结果与分析 | 第74-76页 |
4.5 本章小结 | 第76-78页 |
第5章 基于卷积神经网络和相关滤波的目标跟踪方法 | 第78-107页 |
5.1 引言 | 第78-80页 |
5.2 深度学习与目标跟踪 | 第80-84页 |
5.2.1 深度学习 | 第80-82页 |
5.2.2 基于深度学习的目标跟踪 | 第82-84页 |
5.3 深度背景感知目标跟踪方法 | 第84-96页 |
5.3.1 融合相关滤波器的深度学习模型 | 第85-86页 |
5.3.2 背景感知深度学习模型 | 第86-87页 |
5.3.3 深度网络模型结构 | 第87-90页 |
5.3.4 网络参数学习 | 第90-93页 |
5.3.5 实验结果与分析 | 第93-96页 |
5.4 自适应卷积特征选择的目标跟踪方法 | 第96-106页 |
5.4.1 预训练模型问题解析 | 第96-98页 |
5.4.2 卷积特征提取 | 第98-99页 |
5.4.3 自适应特征选择 | 第99-100页 |
5.4.4 跟踪器训练与目标定位 | 第100-102页 |
5.4.5 实验结果与分析 | 第102-106页 |
5.5 本章小结 | 第106-107页 |
第6章 总结与展望 | 第107-110页 |
6.1 研究工作总结 | 第107-108页 |
6.2 目标跟踪方法展望 | 第108-110页 |
参考文献 | 第110-117页 |
致谢 | 第117-118页 |
攻读学位期间参加的科研项目和成果 | 第118-119页 |