致谢 | 第4-5页 |
摘要 | 第5-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第11-26页 |
1.1 引言 | 第11-12页 |
1.2 国内外研究现状 | 第12-19页 |
1.2.1 基于多目视觉及深度视觉的位姿估计方法 | 第12-15页 |
1.2.2 基于单目视觉的位姿估计方法 | 第15-19页 |
1.3 本文的研究意义与技术路线 | 第19-21页 |
1.4 本文的主要内容及架构 | 第21-25页 |
1.5 本章小结 | 第25-26页 |
第2章 基于无纹理零件CAD模型的稀疏视角采样 | 第26-35页 |
2.1 引言 | 第26页 |
2.2 基于颜色编码的CAD模型图像渲染 | 第26-29页 |
2.2.1 光场环境模拟 | 第26-27页 |
2.2.2 模型颜色编码 | 第27-29页 |
2.3 基于记忆化方法的CAD模型顶点信息关联 | 第29-32页 |
2.4 基于菲波那契网格法的稀疏视角模板采样 | 第32-34页 |
2.5 本章小结 | 第34-35页 |
第3章 基于规整化直线检测子的无纹理零件特征提取 | 第35-42页 |
3.1 引言 | 第35页 |
3.2 基于线段检测子(LSD)的特征提取 | 第35-38页 |
3.3 基于规整化直线检测子(CLSD)的特征提取 | 第38-41页 |
3.4 本章小结 | 第41-42页 |
第4章 基于对比度不变线束描述子的无纹理零件边缘轮廓匹配 | 第42-53页 |
4.1 引言 | 第42-43页 |
4.2 对比度不变线束描述子(GIIBOLD)的构建 | 第43-46页 |
4.2.1 基于前景物体主方向的线束方向确定 | 第43-45页 |
4.2.2 基于k近邻线段的线束描述子的构建 | 第45-46页 |
4.3 基于对比度不变线束描述子(GIIBOLD)的轮廓匹配 | 第46-52页 |
4.3.1 推广化的描述子距离计算方法构建 | 第46-49页 |
4.3.2 线束描述子匹配实例分析 | 第49-52页 |
4.4 本章小结 | 第52-53页 |
第5章 基于稀疏视角模板的零件位姿估计 | 第53-70页 |
5.1 引言 | 第53页 |
5.2 相机内外参数标定 | 第53-55页 |
5.3 基于EPnP的零件位姿估计 | 第55-58页 |
5.3.1 基于记忆化数据的点对生成 | 第55-56页 |
5.3.2 基于透视n点方法的位姿计算 | 第56-58页 |
5.4 零件位姿估计测试 | 第58-69页 |
5.5 本章小结 | 第69-70页 |
第6章 机器人零件位姿估计与抓取系统开发 | 第70-82页 |
6.1 引言 | 第70页 |
6.2 机器人零件位姿估计与抓取系统硬件架构 | 第70-73页 |
6.3 机器人零件位姿估计与抓取系统软件架构 | 第73-76页 |
6.3.1 软件架构层次设计 | 第73页 |
6.3.2 软件内部通讯架构设计 | 第73-75页 |
6.3.3 软件图形用户界面设计 | 第75-76页 |
6.4 机器人零件位姿估计与抓取应用验证 | 第76-81页 |
6.4.1 手眼标定及坐标转换 | 第76-79页 |
6.4.2 实际零件抓取实验 | 第79-81页 |
6.5 本章小结 | 第81-82页 |
第7章 总结与展望 | 第82-84页 |
7.1 工作总结 | 第82-83页 |
7.2 工作展望 | 第83-84页 |
参考文献 | 第84-91页 |
作者简介 | 第91-92页 |