摘要 | 第4-5页 |
abstract | 第5-6页 |
1 绪论 | 第9-16页 |
1.1 课题研究背景及意义 | 第9页 |
1.2 视觉抓取系统的国内外研究现状 | 第9-13页 |
1.2.1 视觉抓取系统的国外研究和应用现状 | 第10-12页 |
1.2.2 视觉抓取系统的国内研究现状 | 第12-13页 |
1.3 论文研究内容 | 第13-16页 |
1.3.1 论文研究的主要内容 | 第13页 |
1.3.2 论文研究的关键点 | 第13-14页 |
1.3.3 论文结构 | 第14-16页 |
2 机器人视觉引导系统 | 第16-31页 |
2.1 视觉引导系统的构建 | 第16-19页 |
2.2 视觉系统的标定 | 第19-25页 |
2.2.1 摄像机成像模型 | 第20页 |
2.2.2 摄像机标定原理 | 第20-24页 |
2.2.3 KinectRGB相机的标定结果 | 第24-25页 |
2.3 机器人手眼标定 | 第25-30页 |
2.3.1 KinovaJACO6DOF-S的机构形式 | 第25-26页 |
2.3.2 Kinova机器人的手眼标定 | 第26-30页 |
2.4 本章小结 | 第30-31页 |
3 机器人作业场景测量 | 第31-46页 |
3.1 主动视觉场景测量方法 | 第31-34页 |
3.2 Kinect精度分析 | 第34-36页 |
3.3 深度图的预处理 | 第36-45页 |
3.3.1 Kinect深度图噪声分析 | 第36页 |
3.3.2 基于引导采样的深度图修补算法 | 第36-41页 |
3.3.3 算法实现及效果 | 第41-45页 |
3.4 本章小结 | 第45-46页 |
4 机器人作业场景中的目标识别与位姿估计 | 第46-62页 |
4.1 点云的特征描述 | 第47-49页 |
4.1.1 点云数据集法向量求取 | 第47-48页 |
4.1.2 点云数据集的点对特征 | 第48-49页 |
4.2 模型特征描述器的离线训练 | 第49-50页 |
4.3 点云场景的在线位姿估计 | 第50-56页 |
4.3.1 位姿估计问题的简化 | 第50-53页 |
4.3.2 基于霍夫投票的目标位姿估计 | 第53-54页 |
4.3.3 目标位姿的聚类估计 | 第54-56页 |
4.4 ICP算法的修正 | 第56-60页 |
4.5 算法加速 | 第60-61页 |
4.6 本章小结 | 第61-62页 |
5 系统验证与分析 | 第62-72页 |
5.1 视觉抓取平台的搭建 | 第62页 |
5.2 系统实现及验证 | 第62-71页 |
5.2.1 手眼标定的精度估计 | 第63-64页 |
5.2.2 三维物体的位姿估计与抓取实验 | 第64-71页 |
5.3 本章小结 | 第71-72页 |
结论 | 第72-73页 |
致谢 | 第73-74页 |
参考文献 | 第74-79页 |
攻读硕士学位期间发表的学术论文及研究成果 | 第79页 |
学术论文 | 第79页 |
参与项目 | 第79页 |