基于动态背景的视频监控系统研究
摘要 | 第4-6页 |
abstract | 第6-7页 |
第1章 绪论 | 第10-14页 |
1.1 引言 | 第10-11页 |
1.2 课题背景与意义 | 第11-12页 |
1.3 国内外研究现状 | 第12页 |
1.4 本文研究内容 | 第12-13页 |
1.5 本文的组织架构 | 第13-14页 |
第2章 动态场景融合下运动目标检测系统设计 | 第14-33页 |
2.1 系统结构 | 第14-16页 |
2.2 系统平台 | 第16页 |
2.3 系统中主要的模块设计 | 第16-24页 |
2.3.1 摄像头视频采集模块 | 第16-21页 |
2.3.2 摄像头控制模块 | 第21-24页 |
2.4 系统功能模块的设计与实现 | 第24-29页 |
2.4.1 系统主要功能介绍 | 第24页 |
2.4.2 配置软件功能 | 第24-26页 |
2.4.3 抓拍软件功能 | 第26-29页 |
2.5 配置软件优化 | 第29-30页 |
2.6 实验环境搭建 | 第30-31页 |
2.7 本章小结 | 第31-33页 |
第3章 基于SURF图像配准的全景图像生成 | 第33-61页 |
3.1 图像拼接 | 第33-36页 |
3.1.1 图像拼接系统组成 | 第33-35页 |
3.1.2 图像拼接技术研究现状 | 第35-36页 |
3.1.3 图像拼接的难点 | 第36页 |
3.2 图像配准 | 第36-44页 |
3.2.1 图像特征 | 第37-40页 |
3.2.2 图像匹配分类 | 第40-42页 |
3.2.3 图像匹配过程 | 第42-44页 |
3.2.4 图像匹配性能评价 | 第44页 |
3.3 图像融合 | 第44-47页 |
3.3.1 图像融合基本理论 | 第44-45页 |
3.3.2 常用图像融合算法 | 第45-46页 |
3.3.3 图像拼接缝的消除 | 第46-47页 |
3.3.4 图像融合的难点 | 第47页 |
3.4 角点检测 | 第47-52页 |
3.4.1 Moravec角点检测算法 | 第48-49页 |
3.4.2 Harris角点检测算法 | 第49-50页 |
3.4.3 小波变换角点检测算法 | 第50-51页 |
3.4.4 Forstner角点检测算法 | 第51-52页 |
3.4.5 SUSAN角点检测算法 | 第52页 |
3.5 SURF特征算法 | 第52-53页 |
3.6 基于仿射变换的角点匹配 | 第53-54页 |
3.6.1 仿射变换性质 | 第53-54页 |
3.6.2 基于仿射变换的图像配准方法 | 第54页 |
3.7 图像拼接实验 | 第54-55页 |
3.8 基于动态场景下的角点对提取算法 | 第55-60页 |
3.8.1 匹配角点选择算法设计 | 第55-58页 |
3.8.2 匹配角点提取算法实验 | 第58-59页 |
3.8.3 实验总结及讨论 | 第59-60页 |
3.9 本章小结 | 第60-61页 |
第4章 运动目标检测及改进 | 第61-69页 |
4.1 算法基础 | 第61-64页 |
4.1.1 全景背景图像生成 | 第61-62页 |
4.1.2 运动对象检测 | 第62-64页 |
4.2 配准算法 | 第64-65页 |
4.3 设计及实验 | 第65-68页 |
4.3.1 实验条件 | 第65页 |
4.3.2 实验结果 | 第65-67页 |
4.3.3 结果讨论 | 第67-68页 |
4.4 本章小结 | 第68-69页 |
第5章 成果与展望 | 第69-71页 |
5.1 研究工作总结 | 第69-70页 |
5.2 工作展望 | 第70-71页 |
致谢 | 第71-72页 |
参考文献 | 第72-74页 |