基于深度学习的机器人抓取仿真训练技术研究
摘要 | 第4-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第10-17页 |
1.1 项目研究背景及意义 | 第10-11页 |
1.2 国内外研究现状 | 第11-15页 |
1.2.1 国外研究现状 | 第11-14页 |
1.2.2 国内研究现状 | 第14页 |
1.2.3 研究现状分析 | 第14-15页 |
1.3 主要研究内容 | 第15-17页 |
第2章 机器人抓取系统框架及手眼标定 | 第17-30页 |
2.1 系统整体框架 | 第17页 |
2.2 相机原理介绍 | 第17-24页 |
2.2.1 相机模型 | 第18-19页 |
2.2.2 坐标转换 | 第19-20页 |
2.2.3 相机标定原理 | 第20-22页 |
2.2.4 Kinect相机标定 | 第22-24页 |
2.3 基于采样的机械臂运动规划 | 第24-26页 |
2.3.1 PRM算法 | 第24-25页 |
2.3.2 RRT算法 | 第25-26页 |
2.4 机械臂手眼标定 | 第26-29页 |
2.5 本章小结 | 第29-30页 |
第3章 基于VREP的抓取仿真建模与样例生成 | 第30-47页 |
3.1 仿真环境框架 | 第30-32页 |
3.2 仿真环境中的三个要素 | 第32-36页 |
3.2.1 物体建模 | 第32-34页 |
3.2.2 机械臂建模 | 第34-35页 |
3.2.3 深度相机建模 | 第35-36页 |
3.3 虚拟抓取数据收集框架 | 第36-45页 |
3.3.1 基于深度图的随机抓取位姿生成方法 | 第37-42页 |
3.3.2 模型抓取试验设计 | 第42-45页 |
3.4 本章小结 | 第45-47页 |
第4章 基于深度学习的目标抓取位姿检测 | 第47-62页 |
4.1 深度学习的基本原理 | 第47-51页 |
4.1.1 感知机模型 | 第47-49页 |
4.1.2 卷积神经网络 | 第49-51页 |
4.2 抓取目标检测 | 第51-54页 |
4.3 抓取网络的相关介绍 | 第54-56页 |
4.4 用于抓取位姿识别的网络实现流程 | 第56-61页 |
4.5 本章小结 | 第61-62页 |
第5章 机器人抓取验证实验 | 第62-68页 |
5.1 实验准备 | 第62-66页 |
5.1.1 机械臂及机械爪简介 | 第62-64页 |
5.1.2 Kinect V2简介 | 第64-65页 |
5.1.3 现实场景的手眼标定 | 第65-66页 |
5.2 实验流程 | 第66页 |
5.3 实验效果分析 | 第66-67页 |
5.4 本章小结 | 第67-68页 |
结论 | 第68-70页 |
参考文献 | 第70-75页 |
致谢 | 第75页 |