摘要 | 第4-5页 |
Abstract | 第5-6页 |
第一章 绪论 | 第11-14页 |
1.1 研究背景 | 第11-12页 |
1.2 本文工作 | 第12-13页 |
1.3 论文结构 | 第13-14页 |
第二章 研究进展综述 | 第14-20页 |
2.1 机器视觉的发展 | 第14页 |
2.2 视觉伺服控制的现状 | 第14-17页 |
2.2.1 典型的相机模型 | 第15-16页 |
2.2.2 视觉信息处理 | 第16-17页 |
2.3 机器人研究现状 | 第17-18页 |
2.4 物体抓取区域定位研究现状 | 第18-19页 |
2.5 本章小结 | 第19-20页 |
第三章 结合深度和颜色信息的场景物体检测 | 第20-30页 |
3.1 基于深度图像的区域分割 | 第20-23页 |
3.1.1 区域增长算法 | 第22页 |
3.1.2 区域合并规则 | 第22-23页 |
3.2 基于颜色数据的物体分类 | 第23-28页 |
3.2.1 方向梯度直方图 | 第23-27页 |
3.2.2 支持向量机 | 第27-28页 |
3.3 实验结果 | 第28-29页 |
3.4 本章小结 | 第29-30页 |
第四章 结合RANSAC与ICP的场景物体点云配准 | 第30-45页 |
4.1 点云数据生成 | 第30-33页 |
4.2 快速点特征直方图 | 第33-36页 |
4.3 结合RANSAC与ICP的点云配准 | 第36-41页 |
4.3.1 随机一致性算法 | 第37-40页 |
4.3.2 迭代近邻点算法 | 第40-41页 |
4.4 实验结果 | 第41-44页 |
4.5 本章小结 | 第44-45页 |
第五章 基于深度相机的机械臂实物抓取系统实现 | 第45-55页 |
5.1 算法框架 | 第45-49页 |
5.1.1 预处理阶段 | 第45-47页 |
5.1.2 抓取定位阶段 | 第47-49页 |
5.2 软硬件实施 | 第49-50页 |
5.3 坐标变换 | 第50-53页 |
5.3.1 棋盘坐标 | 第51页 |
5.3.2 机械臂坐标 | 第51-52页 |
5.3.3 相机坐标 | 第52-53页 |
5.4 抓取实践测试 | 第53-54页 |
5.5 本章小结 | 第54-55页 |
第六章 总结与展望 | 第55-57页 |
6.1 本文成果 | 第55页 |
6.2 不足与展望 | 第55-57页 |
参考文献 | 第57-65页 |
简历与科研成果 | 第65-66页 |
致谢 | 第66-67页 |