摘要 | 第5-7页 |
ABSTRACT | 第7-8页 |
第1章 绪论 | 第11-21页 |
1.1 课题背景与意义 | 第11-12页 |
1.1.1 课题来源 | 第11页 |
1.1.2 背景与意义 | 第11-12页 |
1.2 机器人视觉拾取系统研究现状及发展 | 第12-18页 |
1.2.1 工业机器人拾取研究现状 | 第12-14页 |
1.2.2 目标检测研究现状 | 第14-16页 |
1.2.3 目标位姿计算研究现状 | 第16-18页 |
1.3 课题主要研究内容 | 第18-19页 |
1.3.1 主要研究内容 | 第18页 |
1.3.2 论文结构安排 | 第18-19页 |
1.4 本章小结 | 第19-21页 |
第2章 机器人视觉拾取系统设计 | 第21-31页 |
2.1 引言 | 第21页 |
2.2 机器人视觉拾取系统的需求分析及总体方案设计 | 第21-24页 |
2.3 系统硬件选型与设计 | 第24-28页 |
2.3.1 三菱RV-7F工业机器人介绍 | 第25页 |
2.3.2 相机与镜头选型 | 第25-26页 |
2.3.3 光源选型 | 第26-27页 |
2.3.4 机器人末端执行器设计 | 第27页 |
2.3.5 其他硬件选型 | 第27-28页 |
2.4 系统软件设计 | 第28-29页 |
2.4.1 程序架构设计 | 第28页 |
2.4.2 软件功能分析与设计 | 第28-29页 |
2.5 本章小结 | 第29-31页 |
第3章 基于双目立体视觉的表面三维重建 | 第31-45页 |
3.1 引言 | 第31页 |
3.2 双目视觉原理 | 第31-33页 |
3.2.1 双目立体视觉三维测量原理 | 第32页 |
3.2.2 立体视觉测量数学模型 | 第32-33页 |
3.3 双目视觉标定 | 第33-35页 |
3.3.1 单目相机标定实验 | 第34页 |
3.3.2 双目立体标定实验 | 第34-35页 |
3.4 双目立体视觉三维重建 | 第35-43页 |
3.4.1 消除畸变 | 第35-36页 |
3.4.2 立体校正 | 第36-37页 |
3.4.3 基于格雷码编码结构光的三维重建 | 第37-43页 |
3.5 本章小结 | 第43-45页 |
第4章 目标分割与位姿估计 | 第45-61页 |
4.1 引言 | 第45页 |
4.2 基于Mask R-CNN的实例分割 | 第45-52页 |
4.2.1 Mask R-CNN概述 | 第46页 |
4.2.2 基于COCO数据集预训练权重的迁移学习 | 第46-52页 |
4.3 基于CAD模型的位姿估计 | 第52-59页 |
4.3.1 点云预处理 | 第52-53页 |
4.3.2 点云关键点提取 | 第53-54页 |
4.3.3 基于FPFH的关键点特征描述 | 第54-55页 |
4.3.4 基于SAC-IA算法的初步位姿估计 | 第55-56页 |
4.3.5 基于ICP算法的精位姿配准 | 第56-58页 |
4.3.6 不同遮挡尺度下的配准结果验证 | 第58-59页 |
4.4 本章小结 | 第59-61页 |
第5章 机器人视觉拾取方案设计及实验验证 | 第61-71页 |
5.1 机器人手眼标定 | 第61-63页 |
5.2 实验设计 | 第63-67页 |
5.3 实验结果与分析 | 第67-70页 |
5.4 本章小结 | 第70-71页 |
第6章 结论与展望 | 第71-73页 |
6.1 结论 | 第71页 |
6.2 展望 | 第71-73页 |
参考文献 | 第73-79页 |
致谢 | 第79-81页 |
攻读学位期间参加的科研项目和成果 | 第81页 |