摘要 | 第5-6页 |
abstract | 第6-7页 |
第1章 绪论 | 第10-16页 |
1.1 研究的背景和意义 | 第10-11页 |
1.2 国内外研究现状及趋势 | 第11-12页 |
1.3 目标检测跟踪技术的基本算法介绍及现状 | 第12-14页 |
1.4 本文的主要工作和内容安排 | 第14-16页 |
1.4.1 本文的主要工作 | 第14-15页 |
1.4.2 本文的内容安排 | 第15-16页 |
第2章 双目视觉系统的标定及其参数提取 | 第16-24页 |
2.1 双目视觉的原理 | 第16页 |
2.2 双目标定及相机参数提取 | 第16-21页 |
2.2.1 坐标系之间的转换原理 | 第17-18页 |
2.2.2 单目标定 | 第18-20页 |
2.2.3 双目的标定 | 第20页 |
2.2.4 相机参数的获取 | 第20-21页 |
2.3 双目视觉标定过程与结果 | 第21-23页 |
2.4 本章小节 | 第23-24页 |
第3章 基于改进的背景差法运动目标检测 | 第24-37页 |
3.1 图像处理 | 第24-26页 |
3.1.1 线性滤波 | 第24-25页 |
3.1.2 非线性滤波 | 第25页 |
3.1.3 两种滤波实验仿真对比 | 第25-26页 |
3.2 图像颜色模型之间的转换 | 第26-28页 |
3.2.1 RGB空间模型 | 第26页 |
3.2.2 HSV颜色空间模型 | 第26-27页 |
3.2.3 HSV模型和RGB模型之间的转换 | 第27-28页 |
3.3 常见的运动目标检测算法 | 第28-31页 |
3.3.1 帧间差分法 | 第28-29页 |
3.3.2 背景差分法 | 第29-30页 |
3.3.3 光流法 | 第30-31页 |
3.4 目标检测算法实验仿真对比 | 第31-32页 |
3.5 形态学运算原理 | 第32-33页 |
3.5.1 腐蚀与膨胀 | 第32-33页 |
3.5.2 开与闭运算 | 第33页 |
3.6 本文运动目标检测的算法 | 第33-36页 |
3.6.1 背景建模方法 | 第33-34页 |
3.6.2 颜色空间转换下的融合视差图的背景差分法 | 第34-35页 |
3.6.3 本文算法实验仿真分析 | 第35-36页 |
3.7 本章小节 | 第36-37页 |
第4章 运动目标特征点三维聚类 | 第37-47页 |
4.1 SIFT算法原理介绍及仿真 | 第37-40页 |
4.1.1 SIFT算法原理 | 第37-39页 |
4.1.2 SIFT算法实验仿真效果图 | 第39-40页 |
4.2 极限约束方程 | 第40-42页 |
4.3 立体匹配 | 第42-43页 |
4.3.1 相似性判断标准 | 第43页 |
4.4 三维重构原理 | 第43-45页 |
4.4.1 基于最小二乘法模型的三维重构 | 第43-45页 |
4.5 目标特征点三维聚类及实验仿真数据 | 第45-46页 |
4.5.1 FCM聚类算法原理 | 第45页 |
4.5.2 FCM聚类仿真实验 | 第45-46页 |
4.6 本章小结 | 第46-47页 |
第5章 基于三维坐标的运动目标跟踪 | 第47-58页 |
5.1 卡尔曼滤波算法介绍 | 第47页 |
5.2 卡尔曼滤波分类及特点 | 第47-49页 |
5.3 基于三维坐标的运动目标跟踪 | 第49-53页 |
5.3.1 传统的二维质心卡尔曼滤波跟踪简单介绍 | 第49-51页 |
5.3.2 基于三维坐标的运动目标跟踪结合卡尔曼滤波跟踪介绍 | 第51-53页 |
5.4 仿真实验结果分析 | 第53-57页 |
5.5 本章小结 | 第57-58页 |
结论 | 第58-60页 |
参考文献 | 第60-65页 |
攻读硕士学位期间发表的论文和取得的科研成果 | 第65-66页 |
致谢 | 第66页 |