摘要 | 第4-5页 |
ABSTRACT | 第5页 |
第一章 绪论 | 第15-20页 |
1.1 课题背景与研究意义 | 第15-16页 |
1.2 双目立体视觉国内外研究现状 | 第16-18页 |
1.2.1 国外研究现状 | 第16-17页 |
1.2.2 国内研究现状 | 第17-18页 |
1.3 主要内容及章节安排 | 第18-19页 |
1.4 本章小结 | 第19-20页 |
第二章 双目立体视觉的坐标系建立及标定 | 第20-36页 |
2.1 引言 | 第20页 |
2.2 双目立体视觉系统的构建 | 第20-21页 |
2.3 坐标系的建立 | 第21-23页 |
2.4 相机成像模型 | 第23-26页 |
2.4.1 相机的线性模型 | 第23-25页 |
2.4.2 相机的非线性畸变模型 | 第25-26页 |
2.5 标定实验与结果分析 | 第26-33页 |
2.5.1 使用MATLAB和Opencv的标定实验对比与结果分析 | 第26-29页 |
2.5.2 左右相机的投影矩阵 | 第29-30页 |
2.5.3 光照条件下的标定试验对比 | 第30-33页 |
2.6 相机与机器人坐标标定 | 第33-35页 |
2.7 本章小结 | 第35-36页 |
第三章 工件特征提取算法研究与立体匹配 | 第36-54页 |
3.1 引言 | 第36页 |
3.2 图像的预处理 | 第36-37页 |
3.2.1 图像增强 | 第36-37页 |
3.2.2 工件噪点的滤波 | 第37页 |
3.3 工件特征提取方法综述 | 第37-39页 |
3.3.1 边缘特征 | 第38页 |
3.3.2 纹理特征 | 第38页 |
3.3.3 角点特征 | 第38-39页 |
3.4 改进的工件特征提取算法研究 | 第39-49页 |
3.4.1 Harris算法研究 | 第39-41页 |
3.4.2 SIFT算法研究 | 第41-44页 |
3.4.2.1 尺度空间建立 | 第41-43页 |
3.4.2.2 特征点定位 | 第43页 |
3.4.2.3 特征点方向分配 | 第43-44页 |
3.4.2.4 特征描述子生成 | 第44页 |
3.4.3 DAISY描述符算法研究 | 第44-46页 |
3.4.4 改进的工件特征点提取算法研究 | 第46-49页 |
3.5 算法匹配效果比较实验 | 第49-52页 |
3.6 立体匹配 | 第52-53页 |
3.7 本章小结 | 第53-54页 |
第四章 工件识别定位与三维重建 | 第54-67页 |
4.1 引言 | 第54页 |
4.2 工件的识别 | 第54-58页 |
4.2.1 模板匹配 | 第54-55页 |
4.2.2 工件识别 | 第55-58页 |
4.3 工件的定位 | 第58-62页 |
4.3.1 仿射变换模型 | 第59-60页 |
4.3.2 求模板图工件的形心 | 第60-61页 |
4.3.3 计算搜索图像的形心 | 第61-62页 |
4.4 工件三维坐标的重建 | 第62-66页 |
4.4.1 双目视觉三维重建原理 | 第62-63页 |
4.4.2 三维重建方法 | 第63-64页 |
4.4.3 三维重建实验 | 第64-66页 |
4.5 本章总结 | 第66-67页 |
第五章 双目立体视觉机器人抓取实验与结果分析 | 第67-73页 |
5.1 引言 | 第67页 |
5.2 硬件系统分析 | 第67-69页 |
5.2.1 硬件系统简介 | 第67页 |
5.2.2 机器人介绍 | 第67-68页 |
5.2.3 相机介绍 | 第68-69页 |
5.3 软件系统分析 | 第69-70页 |
5.4 抓取实验与结果分析 | 第70-71页 |
5.5 本章小结 | 第71-73页 |
第六章 结论与展望 | 第73-75页 |
6.1 总结 | 第73页 |
6.2 展望 | 第73-75页 |
参考文献 | 第75-81页 |
致谢 | 第81页 |