基于双目立体视觉的目标识别与定位研究
摘要 | 第5-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第10-17页 |
1.1 研究背景及意义 | 第10-12页 |
1.2 国内外研究现状 | 第12-14页 |
1.3 本文主要研究内容与结构安排 | 第14-17页 |
第2章 双目立体视觉测量原理及摄像机标定 | 第17-36页 |
2.1 摄像机成像模型 | 第17-25页 |
2.1.1 坐标系介绍 | 第17-21页 |
2.1.2 摄像机线性模型 | 第21-24页 |
2.1.3 摄像机非线性模型 | 第24-25页 |
2.2 摄像机标定常用方法 | 第25-26页 |
2.2.1 摄像机传统标定方法 | 第25-26页 |
2.2.2 摄像机自标定方法 | 第26页 |
2.2.3 摄像机主动视觉标定方法 | 第26页 |
2.3 基于OpenCV的摄像机标定 | 第26-30页 |
2.4 双目摄像机测量与成像原理 | 第30-32页 |
2.5 摄像机标定实验结果与分析 | 第32-35页 |
2.6 本章小结 | 第35-36页 |
第3章 目标物体图像特征点的提取与配准 | 第36-52页 |
3.1 图像特征 | 第36页 |
3.2 SIFT特征提取及其描述 | 第36-42页 |
3.2.1 构建尺度空间及极值点检测 | 第37-39页 |
3.2.2 特征点的精确定位 | 第39-40页 |
3.2.3 消除边缘响应 | 第40页 |
3.2.4 局部图像特征点方向标记 | 第40-41页 |
3.2.5 构造特征描述符 | 第41-42页 |
3.3 SURF特征提取及其描述 | 第42-44页 |
3.3.1 SURF特征点提取 | 第42页 |
3.3.2 建立尺度空间 | 第42-43页 |
3.3.3 SURF特征符描述 | 第43-44页 |
3.4 SURF特征匹配实验 | 第44-46页 |
3.5 PROSAC算法提纯 | 第46-48页 |
3.6 确定目标物体所在区域 | 第48-51页 |
3.6.1 单应矩阵 | 第48-49页 |
3.6.2 确定目标区域 | 第49-51页 |
3.7 本章小结 | 第51-52页 |
第4章 目标轮廓提取与目标定位 | 第52-64页 |
4.1 GrabCut算法 | 第52-55页 |
4.1.1 高斯混合模型对颜色建模 | 第52-54页 |
4.1.2 能量函数最小化 | 第54-55页 |
4.2 与SURF算法结合的GrabCut算法 | 第55-57页 |
4.3 目标定位 | 第57-59页 |
4.3.1 极线约束 | 第57页 |
4.3.2 计算轮廓中心点 | 第57-58页 |
4.3.3 轮廓中心点匹配 | 第58-59页 |
4.4 目标物体的姿态估计 | 第59-60页 |
4.5 实验分析 | 第60-63页 |
4.5.1 目标物体轮廓中心点标定 | 第60-61页 |
4.5.2 极线约束下的模板匹配 | 第61-62页 |
4.5.3 目标物体姿态估计 | 第62页 |
4.5.4 误差分析 | 第62-63页 |
4.6 本章小结 | 第63-64页 |
结论 | 第64-65页 |
参考文献 | 第65-69页 |
攻读硕士学位期间发表的学术成果 | 第69-70页 |
致谢 | 第70页 |