基于深度学习和双目视觉的工业机器人抓取方法研究
摘要 | 第5-7页 |
Abstract | 第7-8页 |
第一章 绪论 | 第12-18页 |
1.1 研究背景及意义 | 第12-13页 |
1.2 国内外研究现状 | 第13-16页 |
1.2.1 工业机器人抓取方法概述 | 第13-14页 |
1.2.2 深度神经网络研究及概述 | 第14-16页 |
1.3 内容和章节安排 | 第16-18页 |
1.3.1 研究内容 | 第16-17页 |
1.3.2 章节安排 | 第17-18页 |
第二章 工业机器人的双目视觉和深度学习基础 | 第18-42页 |
2.1 机器人运动学 | 第18-25页 |
2.1.1 工业机器人空间位姿 | 第18-20页 |
2.1.2 空间位姿坐标变换 | 第20-22页 |
2.1.3 工业机器人运动建模 | 第22-25页 |
2.2 双目视觉系统 | 第25-30页 |
2.2.1 立体视觉原理 | 第25-26页 |
2.2.2 相机成像模型 | 第26-28页 |
2.2.3 摄像机的标定 | 第28-30页 |
2.2.4 立体匹配方法 | 第30页 |
2.3 神经网络技术 | 第30-41页 |
2.3.1 M-P模型 | 第30-31页 |
2.3.2 简单感知机的局限性 | 第31-32页 |
2.3.3 误差反向传播算法 | 第32-33页 |
2.3.4 深层神经网络的问题 | 第33页 |
2.3.5 深度学习方法 | 第33-35页 |
2.3.6 深度学习基本模型 | 第35-41页 |
2.4 本章小节 | 第41-42页 |
第三章 深度学习相关技术及其可视化分析 | 第42-58页 |
3.1 神经网络数值映射 | 第42-43页 |
3.2 神经网络激活函数和评价函数 | 第43-46页 |
3.2.1 指数型激活函数 | 第43-44页 |
3.2.2 ReLU系列激活函数 | 第44-45页 |
3.2.3 Softplus和Swish激活函数 | 第45页 |
3.2.4 损失函数 | 第45-46页 |
3.3 权值调整算法 | 第46-48页 |
3.4 基于深度学习的图像生成可视化分析 | 第48-57页 |
3.4.1 图像生成模型 | 第48-51页 |
3.4.2 实验网络设计 | 第51-53页 |
3.4.3 图像生成对比实验 | 第53-55页 |
3.4.4 实验结果分析 | 第55-57页 |
3.5 本章小结 | 第57-58页 |
第四章 基于深度学习的目标抓取检测 | 第58-81页 |
4.1 基于能模型的深度网络理论基础 | 第58-64页 |
4.1.1 能量模型和正则分布 | 第58-59页 |
4.1.2 马尔科夫链蒙特卡罗方法(MCMC) | 第59-60页 |
4.1.3 马尔科夫链与马尔科夫稳态 | 第60-64页 |
4.2 基于深度学习的抓取检测方法 | 第64-80页 |
4.2.1 抓取检测方法模型 | 第64-66页 |
4.2.2 候选区域生成方法 | 第66-69页 |
4.2.3 基于能量模型的候选区域筛选 | 第69-73页 |
4.2.4 检测模型选择 | 第73-77页 |
4.2.5 实验结果分析 | 第77-80页 |
4.3 本章小结 | 第80-81页 |
第五章 基于机器视觉的工业机器人抓取方法 | 第81-103页 |
5.1 基于视觉的工业机器人抓取轨迹规划 | 第81-94页 |
5.1.1 工业机器人轨迹规划方法 | 第81-82页 |
5.1.2 轨迹规划方法概述 | 第82页 |
5.1.3 双耳视觉传感器优点 | 第82-83页 |
5.1.4 双目视觉构建 | 第83-84页 |
5.1.5 关节空间轨迹规划 | 第84-86页 |
5.1.6 基于关节状态的轨迹生成模型 | 第86-89页 |
5.1.7 仿真及实验结果分析 | 第89-91页 |
5.1.8 实验结果及分析 | 第91-94页 |
5.2 基于视觉的工业机器入装配系统研究 | 第94-101页 |
5.2.1 基于双目视觉的工业机器人装配系统模型 | 第94-95页 |
5.2.2 双目视觉模块分析 | 第95-96页 |
5.2.3 工业机器人的模块分折 | 第96-99页 |
5.2.4 实验结果分析 | 第99-101页 |
5.3 本章小节 | 第101-103页 |
第六章 总结 | 第103-106页 |
6.1 主要的贡献 | 第103-104页 |
6.2 展望 | 第104-106页 |
参考文献 | 第106-115页 |
攻读博士学位期间取得的研究成果 | 第115-117页 |
致谢 | 第117-118页 |
附件 | 第118页 |