摘要 | 第5-7页 |
Abstract | 第7-8页 |
第一章 绪论 | 第12-20页 |
1.1 课题的研究背景及研究意义 | 第12-16页 |
1.1.1 传统视频监控系统的不足 | 第12-13页 |
1.1.2 智能视频监控的定义及优点 | 第13页 |
1.1.3 智能视频监控系统组成 | 第13-15页 |
1.1.4 多运动物体检测与跟踪的研究意义 | 第15-16页 |
1.2 研究现状 | 第16页 |
1.3 存在的问题 | 第16-18页 |
1.3.1 运动目标检测中的问题 | 第17页 |
1.3.2 运动目标跟踪中存在的问题 | 第17-18页 |
1.4 主要研究内容及章节结构 | 第18-20页 |
1.4.1 主要研究内容 | 第18页 |
1.4.2 章节安排 | 第18-20页 |
第二章 实验平台介绍 | 第20-28页 |
2.1 硬件部分 | 第20-23页 |
2.1.1 硬件平台搭建 | 第20-21页 |
2.1.2 硬件部件介绍 | 第21-23页 |
2.2 软件部分 | 第23-26页 |
2.2.1 MicrosoftVisualStudio | 第24页 |
2.2.2 图像处理函数库OpenCV2.4. | 第24-26页 |
2.3 系统总体流程图 | 第26-27页 |
2.4 本章小结 | 第27-28页 |
第三章 图像处理 | 第28-37页 |
3.1 彩色模型 | 第28-31页 |
3.1.1 RGB彩色模型 | 第28-29页 |
3.1.2 HSI彩色模型 | 第29-30页 |
3.1.3 彩色模型RGB与HSI间转换 | 第30-31页 |
3.2 图像增强 | 第31页 |
3.3 边缘检测和轮廓跟踪 | 第31-33页 |
3.3.1 边缘检测 | 第31-32页 |
3.3.2 轮廓跟踪 | 第32-33页 |
3.4 图像二值化 | 第33页 |
3.5 图像的数学形态学操作 | 第33-36页 |
3.5.1 腐蚀与膨胀 | 第33-35页 |
3.5.2 开运算与闭运算 | 第35-36页 |
3.6 本章小结 | 第36-37页 |
第四章 目标检测算法 | 第37-53页 |
4.1 传统的目标检测算法 | 第37-47页 |
4.1.1 帧间差分法 | 第37-39页 |
4.1.2 光流法 | 第39-40页 |
4.1.3 单高斯背景建模 | 第40-42页 |
4.1.4 混合高斯背景建模 | 第42-44页 |
4.1.5 Codebook背景建模 | 第44-47页 |
4.2 传统的目标检测算法总结及实验检测算法选择 | 第47-49页 |
4.3 改进的Codebook算法 | 第49-52页 |
4.4 本章小结 | 第52-53页 |
第五章 目标定位算法 | 第53-70页 |
5.1 摄像机标定基础 | 第53-58页 |
5.1.1 相机模型 | 第53-54页 |
5.1.2 摄像机线性模型下四个坐标系及对应关系 | 第54-58页 |
5.2 摄像机标定方法 | 第58-63页 |
5.2.1 线性标定方法 | 第58-60页 |
5.2.2 张正友的标定方法 | 第60-63页 |
5.3 实验中摄像机标定方法及机器人位置误差分析 | 第63-69页 |
5.3.1 线性标定方法 | 第63-64页 |
5.3.2 基于线性标定方法及改进的Codebook算法的机器人位置误差分析 | 第64-67页 |
5.3.3 张正友的标定方法 | 第67-68页 |
5.3.4 张正友的标定方法及基于局部特征的机器人检测算法误差分析 | 第68-69页 |
5.4 本章小结 | 第69-70页 |
第六章 目标跟踪算法 | 第70-74页 |
6.1 目标跟踪方法 | 第70-71页 |
6.2 本实验中目标跟踪方法 | 第71-73页 |
6.3 本章小结 | 第73-74页 |
第七章 总结与展望 | 第74-76页 |
参考文献 | 第76-79页 |
攻读硕士学位期间取得的研究成果 | 第79-80页 |
致谢 | 第80-81页 |
附件 | 第81页 |