中文摘要 | 第3-4页 |
Abstract | 第4-5页 |
第一章 引言 | 第8-15页 |
1.1 课题研究背景及意义 | 第8-10页 |
1.1.1 RGB-D摄像机简介 | 第8-9页 |
1.1.2 仿人机器人NAO简介 | 第9-10页 |
1.2 课题关键技术的研究现状 | 第10-13页 |
1.2.1 场景分割研究现状 | 第10-11页 |
1.2.2 物体识别及姿态估计研究现状 | 第11-12页 |
1.2.3 机器人抓取规划研究现状 | 第12-13页 |
1.3 论文主要内容 | 第13-14页 |
1.4 论文章节安排 | 第14页 |
1.5 论文的创新之处 | 第14-15页 |
第二章 结合梯度和RANSAC的场景分割算法 | 第15-23页 |
2.1 RGB-D摄像机的工作原理 | 第15-17页 |
2.1.1 红外测距原理 | 第15-16页 |
2.1.2 激光散斑技术 | 第16-17页 |
2.2 场景点云获取及预处理技术 | 第17-19页 |
2.2.1 场景点云获取技术 | 第17-18页 |
2.2.2 点云预处理技术 | 第18-19页 |
2.3 结合梯度与RANSAC的分割算法 | 第19-23页 |
2.3.1 图像梯度简介 | 第19-20页 |
2.3.2 RANSAC算法简介 | 第20-21页 |
2.3.3 结合梯度与RANSAC算法的分割场景算法 | 第21-23页 |
第三章 物体识别及抓取位姿的确定 | 第23-33页 |
3.1 CVFH特征表达 | 第23-25页 |
3.1.1 VFH描述子 | 第23-24页 |
3.1.2 CVFH描述子 | 第24-25页 |
3.2 物体模型库的建立 | 第25-26页 |
3.3 机器人物体识别和姿态估计系统 | 第26-27页 |
3.4 抓取位姿生成 | 第27-33页 |
3.4.1 仿人机器人NAO与RGB-D摄像机标定 | 第27-31页 |
3.4.1.1 RGB相机成像原理 | 第27-29页 |
3.4.1.2 仿人机器人NAO和RGB-D摄像机内参标定 | 第29-30页 |
3.4.1.3 仿人机器人NAO与RGB-D摄像机外参标定 | 第30-31页 |
3.4.2 机器人抓取位姿生成 | 第31-33页 |
第四章 多目标物抓取规划方法 | 第33-44页 |
4.1 物体空间与抓取空间的构建与更新 | 第33-36页 |
4.1.1 构建物体空间 | 第33页 |
4.1.2 构建理论抓取空间 | 第33-35页 |
4.1.3 实际抓取空间构建与物体空间更新 | 第35-36页 |
4.2 抓取可操作性分析 | 第36-37页 |
4.2.1 实际抓取空间到非目标物空间距离计算 | 第36页 |
4.2.2 可操作性评价值计算 | 第36-37页 |
4.3 抓取评价函数建立 | 第37-39页 |
4.3.1 抓取位姿检测 | 第37页 |
4.3.2 抓取方案的生成 | 第37-38页 |
4.3.3 抓取评价函数表示 | 第38-39页 |
4.4 抓取过程中的逆向运动学分析 | 第39-44页 |
4.4.1 仿人机器人NAO关节自由度分析 | 第39-40页 |
4.4.2 任意6DOF的逆向运动学求解方案 | 第40-44页 |
第五章 多目标抓取实验 | 第44-53页 |
5.1 多目标物抓取实验场景布局 | 第44页 |
5.2 最佳抓取策略生成及处理 | 第44-47页 |
5.2.1 抓取评价值计算 | 第45-46页 |
5.2.2 目标物处理过程 | 第46-47页 |
5.3 所提算法的执行时间 | 第47-48页 |
5.4 不同抓取方案与规划方法之间对比 | 第48-53页 |
5.4.1 不同抓取方案间的比较 | 第48-50页 |
5.4.2 不同抓取规划方法间的比较 | 第50-53页 |
总结与展望 | 第53-54页 |
参考文献 | 第54-59页 |
致谢 | 第59-60页 |
个人简历、攻读学位期间参与的科研项目和成果 | 第60页 |