首页--工业技术论文--自动化技术、计算机技术论文--自动化技术及设备论文--机器人技术论文--机器人论文

基于深度学习的机器人抓取仿真训练技术研究

摘要第4-6页
Abstract第6-7页
第1章 绪论第10-17页
    1.1 项目研究背景及意义第10-11页
    1.2 国内外研究现状第11-15页
        1.2.1 国外研究现状第11-14页
        1.2.2 国内研究现状第14页
        1.2.3 研究现状分析第14-15页
    1.3 主要研究内容第15-17页
第2章 机器人抓取系统框架及手眼标定第17-30页
    2.1 系统整体框架第17页
    2.2 相机原理介绍第17-24页
        2.2.1 相机模型第18-19页
        2.2.2 坐标转换第19-20页
        2.2.3 相机标定原理第20-22页
        2.2.4 Kinect相机标定第22-24页
    2.3 基于采样的机械臂运动规划第24-26页
        2.3.1 PRM算法第24-25页
        2.3.2 RRT算法第25-26页
    2.4 机械臂手眼标定第26-29页
    2.5 本章小结第29-30页
第3章 基于VREP的抓取仿真建模与样例生成第30-47页
    3.1 仿真环境框架第30-32页
    3.2 仿真环境中的三个要素第32-36页
        3.2.1 物体建模第32-34页
        3.2.2 机械臂建模第34-35页
        3.2.3 深度相机建模第35-36页
    3.3 虚拟抓取数据收集框架第36-45页
        3.3.1 基于深度图的随机抓取位姿生成方法第37-42页
        3.3.2 模型抓取试验设计第42-45页
    3.4 本章小结第45-47页
第4章 基于深度学习的目标抓取位姿检测第47-62页
    4.1 深度学习的基本原理第47-51页
        4.1.1 感知机模型第47-49页
        4.1.2 卷积神经网络第49-51页
    4.2 抓取目标检测第51-54页
    4.3 抓取网络的相关介绍第54-56页
    4.4 用于抓取位姿识别的网络实现流程第56-61页
    4.5 本章小结第61-62页
第5章 机器人抓取验证实验第62-68页
    5.1 实验准备第62-66页
        5.1.1 机械臂及机械爪简介第62-64页
        5.1.2 Kinect V2简介第64-65页
        5.1.3 现实场景的手眼标定第65-66页
    5.2 实验流程第66页
    5.3 实验效果分析第66-67页
    5.4 本章小结第67-68页
结论第68-70页
参考文献第70-75页
致谢第75页

论文共75页,点击 下载论文
上一篇:基于多源遥感图像的立体目标识别
下一篇:永磁同步电机单电流传感器电流预测控制技术研究