致谢 | 第5-6页 |
摘要 | 第6-7页 |
ABSTRACT | 第7页 |
1 引言 | 第10-16页 |
1.1 研究背景和意义 | 第10-11页 |
1.2 智能视频监控概述 | 第11-12页 |
1.3 国内外研究现状 | 第12-14页 |
1.3.1 模拟时代 | 第12页 |
1.3.2 数字时代 | 第12页 |
1.3.3 网络时代 | 第12-13页 |
1.3.4 智能视频监控时代 | 第13-14页 |
1.4 论文主要工作 | 第14页 |
1.5 论文组织结构 | 第14-16页 |
2 智能视频监控中行人检测与跟踪方法 | 第16-36页 |
2.1 图像颜色空间 | 第16-18页 |
2.1.1 RGB彩色模型 | 第16-17页 |
2.1.2 HSV颜色空间 | 第17页 |
2.1.3 RGB与HSV之间转化 | 第17-18页 |
2.2 目标检测方法研究 | 第18-31页 |
2.2.1 基于运动信息的检测方法 | 第18-21页 |
2.2.2 基于外观特征的行人检测 | 第21-31页 |
2.3 目标跟踪方法研究 | 第31-35页 |
2.3.1 基于特征匹配的跟踪方法 | 第32-33页 |
2.3.2 基于模板匹配的跟踪方法 | 第33页 |
2.3.3 基于模型的跟踪方法 | 第33-34页 |
2.3.4 基于主动轮廓的跟踪方法 | 第34-35页 |
2.4 本章小结 | 第35-36页 |
3 基于迁移学习和稀疏表达的特定场景下的行人检测方法 | 第36-54页 |
3.1 方法概述 | 第37-39页 |
3.2 目标模板的选取 | 第39-41页 |
3.2.1 正目标模板的选取 | 第39-41页 |
3.2.2 负目标模板的选取 | 第41页 |
3.3 较远距离目标样本的选取 | 第41-42页 |
3.4 目标样本的加权 | 第42-44页 |
3.5 显著性检测和原始样本的加权 | 第44-47页 |
3.5.1 检测行人样本显著性区域 | 第44-45页 |
3.5.2 原始样本的加权 | 第45-47页 |
3.6 训练基于迁移学习的目标场景中的行人检测器 | 第47-48页 |
3.7 实验结果 | 第48-51页 |
3.7.1 实验标准及环境搭建 | 第48-49页 |
3.7.2 选取目标模板时各种过滤方法有效性验证 | 第49-50页 |
3.7.3 基于目标场景的检测器总体性能 | 第50-51页 |
3.8 本章小结 | 第51-54页 |
4 基于粒子滤波的结合检测验证的行人跟踪方法 | 第54-66页 |
4.1 方法概述 | 第54页 |
4.2 粒子滤波原理 | 第54-61页 |
4.2.1 贝叶斯滤波原理 | 第54-55页 |
4.2.2 蒙特卡洛方法 | 第55-56页 |
4.2.3 贝叶斯重要性采样 | 第56-57页 |
4.2.4 序列重要性采样 | 第57-58页 |
4.2.5 建议分布的选择 | 第58-59页 |
4.2.6 重采样 | 第59-60页 |
4.2.7 粒子滤波总体算法描述 | 第60-61页 |
4.3 基于粒子滤波和检测验证的跟踪方法 | 第61-65页 |
4.3.1 目标先验知识 | 第61页 |
4.3.2 状态空间模型与状态转移模型 | 第61-62页 |
4.3.3 系统观测模型 | 第62页 |
4.3.4 算法描述 | 第62-64页 |
4.3.5 实验结果 | 第64-65页 |
4.4 本章小结 | 第65-66页 |
5 结论 | 第66-68页 |
5.1 总结 | 第66-67页 |
5.2 展望 | 第67-68页 |
参考文献 | 第68-72页 |
作者简历及攻读硕士/博士学位期间取得的研究成果 | 第72-76页 |
学位论文数据集 | 第76页 |