基于双目立体视觉的柔性装卸机器人工件定位方法研究
摘要 | 第4-5页 |
Abstract | 第5-6页 |
1 绪论 | 第10-18页 |
1.1 课题研究的背景与意义 | 第10-11页 |
1.2 国内外研究现状 | 第11-14页 |
1.2.1 国外立体视觉研究现状 | 第11-12页 |
1.2.2 国内立体视觉研究现状 | 第12-14页 |
1.3 研究目的和内容 | 第14-18页 |
1.3.1 研究目的 | 第14页 |
1.3.2 研究内容 | 第14-15页 |
1.3.3 本文结构安排 | 第15-18页 |
2 双目立体摄像机标定 | 第18-36页 |
2.1 双目立体视觉原理 | 第18-20页 |
2.1.1 平视双目立体视觉系统模型 | 第18-19页 |
2.1.2 一般双目立体视觉系统模型 | 第19-20页 |
2.2 摄像机成像模型 | 第20-25页 |
2.2.1 坐标系的建立 | 第20-22页 |
2.2.2 摄像机线性模型 | 第22-24页 |
2.2.3 非线性模型 | 第24-25页 |
2.3 摄像机标定方法 | 第25-27页 |
2.4 本文改进的标定方法 | 第27-31页 |
2.4.1 摄像机内外参数求取 | 第27-29页 |
2.4.2 摄像机畸变参数求取 | 第29-30页 |
2.4.3 改进的标定方法实验 | 第30-31页 |
2.5 立体校正 | 第31-34页 |
2.5.1 立体校正理论 | 第31-33页 |
2.5.2 立体校正实验 | 第33-34页 |
2.6 小结 | 第34-36页 |
3 基于改进SURF算法的图像特征提取与匹配 | 第36-52页 |
3.1 传统SURF算法 | 第36-43页 |
3.1.1 积分图像 | 第36-37页 |
3.1.2 近似的Hessian矩阵 | 第37-39页 |
3.1.3 尺度空间表示 | 第39-40页 |
3.1.4 特征点定位 | 第40页 |
3.1.5 确定特征点主方向 | 第40-41页 |
3.1.6 生成描述子 | 第41-43页 |
3.2 本文改进SURF算法 | 第43-46页 |
3.2.1 特征提取 | 第43-44页 |
3.2.2 特征描述 | 第44-45页 |
3.2.3 特征匹配 | 第45-46页 |
3.3 特征匹配实验 | 第46-49页 |
3.4 小结 | 第49-52页 |
4 基于特征点匹配的工件定位方法 | 第52-70页 |
4.1 图像定位方法介绍 | 第52-53页 |
4.1.1 以统计分类为手段的识别定位 | 第52页 |
4.1.2 以图像匹配为手段的目标定位 | 第52-53页 |
4.2 双目立体匹配 | 第53-55页 |
4.2.1 立体匹配关键要素 | 第53页 |
4.2.2 立体匹配算法的分类 | 第53-54页 |
4.2.3 立体匹配的基本约束条件 | 第54-55页 |
4.3 基于改进SURF特征匹配的目标定位 | 第55-61页 |
4.3.1 工件目标轮廓提取 | 第56-58页 |
4.3.2 基于改进SURF特征算子的立体匹配 | 第58-61页 |
4.4 工件位置的三维重建 | 第61-66页 |
4.4.1 三维重建原理 | 第61-62页 |
4.4.2 重建模型 | 第62-63页 |
4.4.3 重建方法 | 第63-64页 |
4.4.4 工件位置的三维重建 | 第64-66页 |
4.5 目标定位实验及精度分析 | 第66-69页 |
4.6 小结 | 第69-70页 |
5 柔性装卸机器人工件定位系统实现 | 第70-82页 |
5.1 硬件系统分析 | 第70-73页 |
5.1.1 硬件系统简介 | 第70页 |
5.1.2 机器人系统 | 第70-72页 |
5.1.3 相机 | 第72-73页 |
5.2 软件设计 | 第73-81页 |
5.2.1 双目是摄像机立体标定 | 第73-75页 |
5.2.2 图像特征提取与匹配 | 第75-77页 |
5.2.3 工件定位系统 | 第77-81页 |
5.3 小结 | 第81-82页 |
6 总结与展望 | 第82-84页 |
6.1 本文总结 | 第82页 |
6.2 未来展望 | 第82-84页 |
参考文献 | 第84-88页 |
个人简历、在学期间发表的学术论文及取得的研究成果 | 第88页 |