摘要 | 第4-5页 |
Abstract | 第5页 |
第一章 绪论 | 第9-16页 |
1.1 研究背景及意义 | 第9-10页 |
1.2 国内外研究现状 | 第10-12页 |
1.2.1 国外研究现状 | 第10-11页 |
1.2.2 国内研究现状 | 第11-12页 |
1.3 双目立体视觉技术面临的问题 | 第12-14页 |
1.4 论文研究目的和研究内容 | 第14-16页 |
1.4.1 研究目的 | 第14页 |
1.4.2 研究内容 | 第14-16页 |
第二章 双目立体视觉测量原理及标定 | 第16-29页 |
2.1 引言 | 第16页 |
2.2 双目立体视觉坐标系 | 第16-18页 |
2.3 双目立体视觉测量原理 | 第18-19页 |
2.4 平视双目立体成像原理 | 第19-20页 |
2.5 摄像机标定 | 第20-28页 |
2.5.1 摄像机标定方法 | 第21页 |
2.5.2 透视投影模型 | 第21-22页 |
2.5.3 标定过程 | 第22-23页 |
2.5.4 摄像机标定实验 | 第23-28页 |
2.6 本章小结 | 第28-29页 |
第三章 图像特征点提取方法研究 | 第29-43页 |
3.1 引言 | 第29页 |
3.2 图像预处理 | 第29-31页 |
3.2.1 平滑滤波 | 第29-31页 |
3.2.2 两种滤波方法比较 | 第31页 |
3.3 角点检测 | 第31-37页 |
3.3.1 Harris角点检测 | 第32-34页 |
3.3.2 SUSAN角点检测 | 第34-36页 |
3.3.3 FAST角点检测 | 第36-37页 |
3.4 BRISK算法 | 第37-39页 |
3.5 SURF特征点检测 | 第39-42页 |
3.5.1 构建尺度空间 | 第39-41页 |
3.5.2 特征点检测 | 第41-42页 |
3.6 本章小结 | 第42-43页 |
第四章 特征点描述及匹配方法研究 | 第43-55页 |
4.1 引言 | 第43页 |
4.2 基于梯度直方图的局部描述方法 | 第43-45页 |
4.3 基于二进制位串的局部描述方法 | 第45-48页 |
4.3.1BRISK描述子 | 第45-46页 |
4.3.2 FREAK | 第46-48页 |
4.4 剔除误匹配的方法 | 第48-50页 |
4.5 本文提出的特征匹配方法 | 第50-54页 |
4.5.1 基于SURF-BRISK的特征匹配方法 | 第50-51页 |
4.5.2 描述子性能比较 | 第51-54页 |
4.6 本章小结 | 第54-55页 |
第五章 工业机器人目标识别定位与实验 | 第55-72页 |
5.1 引言 | 第55页 |
5.2 目标工件识别 | 第55-60页 |
5.2.1 模板匹配法 | 第55-56页 |
5.2.2 模板的获取 | 第56-57页 |
5.2.3 目标识别 | 第57-60页 |
5.3 工件的定位 | 第60-64页 |
5.3.1 仿射变换模型 | 第60-62页 |
5.3.2 求取模版图像的形心坐标 | 第62-64页 |
5.3.3 计算搜索图像形心 | 第64页 |
5.4 工件的三维重建 | 第64-67页 |
5.4.1 三维重建原理 | 第65页 |
5.4.2 实验分析 | 第65-67页 |
5.5 机器人定位抓取实验 | 第67-71页 |
5.5.1 实验设备 | 第67-69页 |
5.5.2 应用软件与抓取实验 | 第69-71页 |
5.6 本章小结 | 第71-72页 |
结论与展望 | 第72-74页 |
参考文献 | 第74-78页 |
攻读硕士学位期间取得的研究成果 | 第78-79页 |
致谢 | 第79页 |