基于双目立体视觉的工件定位技术研究
致谢 | 第4-5页 |
摘要 | 第5-6页 |
Abstract | 第6-7页 |
1 绪论 | 第11-23页 |
1.1 课题背景及研究意义 | 第11页 |
1.2 双目视觉机器人的研究现状 | 第11-16页 |
1.2.1 国外研究现状 | 第11-14页 |
1.2.2 国内研究现状 | 第14-16页 |
1.3 立体匹配算法的研究现状 | 第16-21页 |
1.3.1 立体匹配的难点 | 第16-18页 |
1.3.2 传统立体匹配算法 | 第18-20页 |
1.3.3 基于卷积神经网络的立体匹配算法 | 第20-21页 |
1.4 研究现状总结 | 第21-22页 |
1.5 本文的主要内容 | 第22-23页 |
2 双目视觉机械臂定位系统的设计 | 第23-32页 |
2.1 引言 | 第23页 |
2.2 系统需求分析 | 第23页 |
2.3 系统总体设计 | 第23-25页 |
2.4 相机选型 | 第25-30页 |
2.4.1 深度相机类型的选择 | 第25-27页 |
2.4.2 相机安装方式的选择 | 第27-29页 |
2.4.3 双目相机ZED | 第29-30页 |
2.5 机械臂与机械爪的选型 | 第30-31页 |
2.5.1 机械臂的选型 | 第30页 |
2.5.2 机械爪的选型 | 第30-31页 |
2.6 本章小结 | 第31-32页 |
3 双目视觉机械臂定位系统的坐标系变换方法研究 | 第32-46页 |
3.1 引言 | 第32页 |
3.2 世界坐标系到相机坐标系的变换 | 第32-37页 |
3.2.1 单目相机的成像模型 | 第32-34页 |
3.2.2 双目相机的成像模型 | 第34-37页 |
3.3 基于张正友标定法的相机标定 | 第37-42页 |
3.3.1 图像的畸变模型 | 第37-38页 |
3.3.2 单目相机的标定以及图像的畸变校正 | 第38-40页 |
3.3.3 双目相机的标定及立体图像对的极线校正 | 第40-42页 |
3.4 相机坐标系到机械臂末端执行器坐标系的变换 | 第42-45页 |
3.5 本章小结 | 第45-46页 |
4 基于卷积神经网络的场景视差估计方法研究 | 第46-71页 |
4.1 引言 | 第46页 |
4.2 立体视觉领域常用数据集 | 第46-49页 |
4.2.1 Middlebury数据集 | 第46-47页 |
4.2.2 Scene Flow数据集 | 第47-48页 |
4.2.3 KITTI数据集 | 第48-49页 |
4.3 基于半全局立体匹配算法的场景视差估计 | 第49-54页 |
4.3.1 算法原理 | 第49-53页 |
4.3.2 算法结果 | 第53-54页 |
4.4 基于卷积神经网络的场景视差估计 | 第54-70页 |
4.4.1 特征提取 | 第54-56页 |
4.4.2 空间金字塔池化 | 第56-58页 |
4.4.3 多尺度混合空洞卷积 | 第58-61页 |
4.4.4 代价体构建 | 第61-62页 |
4.4.5 编解码结构 | 第62-63页 |
4.4.6 视差回归 | 第63-64页 |
4.4.7 边缘保留损失函数 | 第64-66页 |
4.4.8 本文算法的结果 | 第66-70页 |
4.5 基于视差图的场景三维重建 | 第70页 |
4.6 本章小结 | 第70-71页 |
5 工件位姿估计与抓取实验 | 第71-85页 |
5.1 引言 | 第71页 |
5.2 基于Hough变换的工件点云分割 | 第71-74页 |
5.2.1 基于OTSU算法的图像二值化 | 第71-72页 |
5.2.2 基于Hough圆变换的工件识别 | 第72-74页 |
5.2.3 工件点云的分割 | 第74页 |
5.3 基于RANSAC算法的工件位姿估计 | 第74-79页 |
5.3.1 基于RANSAC算法的点云平面拟合 | 第74-77页 |
5.3.2 工件的位姿估计 | 第77-78页 |
5.3.3 算法的用时 | 第78-79页 |
5.4 定位精度分析与工件抓取实验 | 第79-84页 |
5.4.1 定位精度分析 | 第79-83页 |
5.4.2 工件抓取实验 | 第83-84页 |
5.5 本章小结 | 第84-85页 |
6 总结与展望 | 第85-87页 |
6.1 总结 | 第85页 |
6.2 展望 | 第85-87页 |
参考文献 | 第87-92页 |