基于双目立体视觉的目标识别与抓取定位
摘要 | 第4-5页 |
ABSTRACT | 第5页 |
第1章 绪论 | 第10-18页 |
1.1 研究背景及意义 | 第10页 |
1.2 基于视觉的目标识别与定位的国内外研究概况 | 第10-14页 |
1.3 双目立体视觉的研究内容 | 第14-15页 |
1.4 本文主要内容和结构安排 | 第15-18页 |
第2章 摄像机标定 | 第18-34页 |
2.1 摄像机模型 | 第18-23页 |
2.1.1 坐标系及其变换 | 第18-20页 |
2.1.2 摄像机线性模型 | 第20-22页 |
2.1.3 摄像机非线性模型 | 第22-23页 |
2.2 单目摄像机标定 | 第23-26页 |
2.2.1 标定板与其图像平面间的映射矩阵 | 第23-24页 |
2.2.2 计算摄像机的参数矩阵 | 第24-26页 |
2.2.3 畸变处理 | 第26页 |
2.3 双目摄像机标定 | 第26-27页 |
2.4 三维重建原理 | 第27-28页 |
2.5 标定实验 | 第28-33页 |
2.6 本章小结 | 第33-34页 |
第3章 目标识别 | 第34-52页 |
3.1 图像特征 | 第34-35页 |
3.1.1 全局特征 | 第34-35页 |
3.1.2 局部不变特征 | 第35页 |
3.2 SIFT算法 | 第35-44页 |
3.2.1 尺度空间的建立 | 第36-38页 |
3.2.2 关键点的检测 | 第38-40页 |
3.2.3 关键点方向的分配 | 第40-41页 |
3.2.4 特征描述子的生成 | 第41页 |
3.2.5 SIFT特征匹配 | 第41-43页 |
3.2.6 匹配提纯 | 第43-44页 |
3.3 基于SIFT的目标识别 | 第44-46页 |
3.3.1 建立目标物体图像库 | 第44页 |
3.3.2 匹配识别 | 第44-45页 |
3.3.3 识别实验与结果分析 | 第45-46页 |
3.4 初步确定目标物体所在区域 | 第46-50页 |
3.4.1 计算单应矩阵 | 第47页 |
3.4.2 基于单应矩阵的映射变换 | 第47-49页 |
3.4.3 目标区域确定和坐标线性变换 | 第49-50页 |
3.5 本章小结 | 第50-52页 |
第4章 目标轮廓提取与目标定位 | 第52-68页 |
4.1 GrabCut算法 | 第52-55页 |
4.1.1 高斯混合模型 | 第52-53页 |
4.1.2 GrabCut的能量函数 | 第53-54页 |
4.1.3 迭代实现能量函数最小化 | 第54-55页 |
4.2 与SIFT算法结合的GrabCut算法 | 第55-56页 |
4.3 目标轮廓中心匹配 | 第56-61页 |
4.3.1 标记目标轮廓中心 | 第56-57页 |
4.3.2 轮廓中心点匹配 | 第57-60页 |
4.3.3 极线约束 | 第60-61页 |
4.4 目标物体的姿态估计 | 第61-64页 |
4.5 实验误差分析 | 第64-67页 |
4.6 本章小结 | 第67-68页 |
第5章 总结 | 第68-70页 |
5.1 总结 | 第68页 |
5.2 下一步科研计划安排 | 第68-70页 |
参考文献 | 第70-74页 |
作者简介及科研成果 | 第74-75页 |
致谢 | 第75页 |