摘要 | 第4-5页 |
abstract | 第5页 |
第一章 绪论 | 第8-15页 |
1.1 研究背景及意义 | 第8-9页 |
1.2 双目立体视觉定位技术国内外研究现状 | 第9-12页 |
1.2.1 国外研究现状 | 第9-10页 |
1.2.2 国内研究现状 | 第10-12页 |
1.3 双目立体视觉定位测量系统的构成 | 第12-13页 |
1.4 本文研究的主要内容与各章节安排 | 第13-15页 |
第二章 双目立体视觉定位测量原理及相机标定 | 第15-27页 |
2.1 双目立体视觉定位测量原理 | 第15-22页 |
2.1.1 相关坐标系 | 第15-16页 |
2.1.2 视觉测量中坐标系的转换 | 第16-17页 |
2.1.3 摄像机成像模型 | 第17-20页 |
2.1.4 双目立体视觉定位测量基本原理及测量模型 | 第20-22页 |
2.2 双目相机标定 | 第22-25页 |
2.2.1 相机的标定方法 | 第22-23页 |
2.2.2 双目相机标定实验及结果分析 | 第23-25页 |
2.3 本章小结 | 第25-27页 |
第三章 图像预处理及特征检测算法 | 第27-40页 |
3.1 图像预处理 | 第27-29页 |
3.1.1 图像灰度化 | 第27-28页 |
3.1.2 图像滤波处理 | 第28-29页 |
3.2 基于OpenCV的图像滤波处理分析 | 第29-30页 |
3.3 图像特征检测算法 | 第30-33页 |
3.3.1 SIFT算法 | 第30-31页 |
3.3.2 SURF算法 | 第31-32页 |
3.3.3 ORB算法 | 第32-33页 |
3.4 检测算法的比较选取 | 第33-39页 |
3.5 本章小结 | 第39-40页 |
第四章 排爆机器人静态图像立体匹配及测量 | 第40-59页 |
4.1 立匹配约束条件 | 第40页 |
4.2 常用的立体匹配算法 | 第40-42页 |
4.3 基于Flann开源库算法的特征点匹配 | 第42-51页 |
4.4 去除误匹配 | 第51-55页 |
4.4.1 去除误匹配算法 | 第52-53页 |
4.4.2 去除误差匹配实验 | 第53-55页 |
4.5 静态图像定位测量实验 | 第55-58页 |
4.5.1 静态图像自匹配定位测量 | 第55-56页 |
4.5.2 静态图像非匹配定位测量 | 第56-58页 |
4.6 本章小结 | 第58-59页 |
第五章 排爆机器人双目立体视觉动态跟踪测量 | 第59-72页 |
5.1 图像的跟踪算法 | 第59-60页 |
5.2 CamShift跟踪算法 | 第60-62页 |
5.3 改进的CamShift算法 | 第62-68页 |
5.3.1 Kalman预测器 | 第62-64页 |
5.3.2 双目立体视觉跟踪的极线约束 | 第64-65页 |
5.3.3 改进后的跟踪算法 | 第65页 |
5.3.4 跟踪目标丢失时应对机制 | 第65-68页 |
5.4 动态图像跟踪定位测量实验 | 第68-70页 |
5.5 排爆机器人双目立体视觉定位测量误差分析 | 第70-71页 |
5.6 本章小结 | 第71-72页 |
总结与展望 | 第72-74页 |
总结 | 第72页 |
展望 | 第72-74页 |
参考文献 | 第74-77页 |
攻读学位期间获得的研究成果 | 第77-78页 |
致谢 | 第78页 |