基于深度学习的工业机器人视觉分拣方法研究
中文摘要 | 第4-6页 |
abstract | 第6-7页 |
第一章 绪论 | 第11-21页 |
1.1 研究背景与意义 | 第11-14页 |
1.2 机器人视觉分拣技术研究现状 | 第14-18页 |
1.3 深度学习技术研究现状 | 第18-19页 |
1.4 本课题主要研究内容 | 第19-21页 |
第二章 工业机器人视觉分拣系统组成 | 第21-31页 |
2.1 工业机器人视觉分拣系统总体方案设计 | 第21-22页 |
2.2 系统硬件选型原则 | 第22-28页 |
2.2.1 工业相机的选择 | 第22-23页 |
2.2.2 光学镜头的选择 | 第23-24页 |
2.2.3 相机安装方式 | 第24-25页 |
2.2.4 光源选型 | 第25页 |
2.2.5 光源照射方式的选择 | 第25-26页 |
2.2.6 六轴关节机器人 | 第26-27页 |
2.2.7 计算机 | 第27-28页 |
2.3 机器人末端执行器的设计 | 第28-29页 |
2.3.1 机械夹爪设计 | 第28页 |
2.3.2 末端执行器系统设计 | 第28页 |
2.3.3 末端执行器系统的工作方式 | 第28-29页 |
2.4 系统组件间通信 | 第29-30页 |
2.5 本章小结 | 第30-31页 |
第三章 相机标定 | 第31-45页 |
3.1 相机模型 | 第31-34页 |
3.1.1 针孔模型 | 第31-33页 |
3.1.2 相机非线性模型 | 第33-34页 |
3.2 相机标定方法研究 | 第34-39页 |
3.2.1 直接线性法 | 第34-35页 |
3.2.2 张正友法 | 第35-39页 |
3.3 视觉系统标定实验 | 第39-44页 |
3.3.1 线性标定及数据分析 | 第39-42页 |
3.3.2 非线性标定及数据分析 | 第42-44页 |
3.4 本章小结 | 第44-45页 |
第四章 基于深度学习的工件检测和定位方法 | 第45-68页 |
4.1 卷积神经网络结构 | 第45-49页 |
4.1.1 卷积层 | 第45-46页 |
4.1.2 激活函数 | 第46-48页 |
4.1.3 池化层 | 第48-49页 |
4.1.4 全连接层 | 第49页 |
4.2 卷积神经网络计算过程 | 第49-52页 |
4.3 卷积神经网络模型的设计 | 第52-54页 |
4.3.1 激活函数的设计 | 第52-53页 |
4.3.2 空间金字塔池化 | 第53-54页 |
4.4 分类器设计 | 第54页 |
4.5 模型框架设计 | 第54-58页 |
4.6 工件检测和定位系统具体实现过程 | 第58-63页 |
4.6.1 系统实现环境 | 第58-59页 |
4.6.2 训练样本 | 第59-60页 |
4.6.3 模型搭建 | 第60-61页 |
4.6.4 卷积神经网络模型训练步骤 | 第61-63页 |
4.7 工件检测和定位实验 | 第63-67页 |
4.7.1 PDN模型检测工件实验 | 第63-64页 |
4.7.2 PDN模型实验基本结论 | 第64页 |
4.7.3 模型性能测试 | 第64-65页 |
4.7.4 与SVM分类器对比 | 第65页 |
4.7.5 KPPN模型定位关键点实验 | 第65-66页 |
4.7.6 KPPN模型测试结论 | 第66-67页 |
4.8 本章小结 | 第67-68页 |
第五章 基于深度学习的工业机器人视觉分拣实验 | 第68-73页 |
5.1 分拣系统简介及工作流程 | 第68-69页 |
5.2 人机交互软件设计 | 第69-70页 |
5.3 工件位姿估计实验 | 第70-71页 |
5.4 机器人分拣实验及结果分析 | 第71-72页 |
5.5 本章小结 | 第72-73页 |
第六章 总结与展望 | 第73-75页 |
6.1 本文总结与创新点 | 第73页 |
6.2 研究工作展望 | 第73-75页 |
参考文献 | 第75-80页 |
攻读硕士学位期间的科研成果 | 第80-81页 |
致谢 | 第81-82页 |