基于FCN的并联机器人工件分拣的研究
学位论文的主要创新点 | 第3-4页 |
摘要 | 第4-5页 |
Abstract | 第5-6页 |
第一章 绪论 | 第9-19页 |
1.1 课题研究背景及意义 | 第9-10页 |
1.2 国内外研究现状 | 第10-17页 |
1.2.1 并联机器人概述 | 第10-13页 |
1.2.2 机器视觉及视觉机器人 | 第13-15页 |
1.2.3 基于机器视觉的检测与识别 | 第15-17页 |
1.3 本文研究内容及组织结构 | 第17-19页 |
第二章 实验平台搭建及系统组成 | 第19-29页 |
2.1 Delta机器人整体系统方案设计 | 第19-21页 |
2.2 视觉系统硬件组成 | 第21-25页 |
2.2.1 相机 | 第21-22页 |
2.2.2 镜头 | 第22-23页 |
2.2.3 光源 | 第23-25页 |
2.3 Delta机器人运动控制系统组成 | 第25-27页 |
2.3.1 KeMotion机器人控制系统 | 第25-26页 |
2.3.2 硬件组成 | 第26-27页 |
2.4 本章小结 | 第27-29页 |
第三章 基于视觉的Delta机器人系统标定 | 第29-43页 |
3.1 视觉系统标定 | 第29-38页 |
3.1.1 摄像机透视成像模型 | 第29-30页 |
3.1.2 模型中各坐标系简介 | 第30页 |
3.1.3 现实空间中点在各坐标系中的转换 | 第30-32页 |
3.1.4 单应矩阵的构造 | 第32-33页 |
3.1.5 摄像机内参数求取 | 第33-35页 |
3.1.6 摄像机外参数求取 | 第35页 |
3.1.7 参数优化 | 第35-36页 |
3.1.8 畸变模型 | 第36-37页 |
3.1.9 摄像机误差修正 | 第37-38页 |
3.1.10 摄像机全部参数优化 | 第38页 |
3.2 机器人、视觉系统及生产线传送带位置的标定 | 第38-41页 |
3.2.1 各坐标系的建立及坐标系转换关系 | 第38-40页 |
3.2.2 视觉系统与生产线的位置标定 | 第40-41页 |
3.2.3 机器人与生产线的位置标定 | 第41页 |
3.3 本章小结 | 第41-43页 |
第四章 基于FCN的工件识别与分类算法 | 第43-53页 |
4.1 冲压件介绍 | 第43-44页 |
4.2 CNN卷积神经网络 | 第44-48页 |
4.2.1 CNN基本原理 | 第44-45页 |
4.2.2 卷积层 | 第45-46页 |
4.2.3 池化层 | 第46页 |
4.2.4 全连接层 | 第46-47页 |
4.2.5 激活函数 | 第47-48页 |
4.3 FCN算法设计 | 第48-51页 |
4.3.1 端到端的网络结构 | 第49-50页 |
4.3.2 多尺度特征融合结构 | 第50-51页 |
4.4 工件定位算法设计 | 第51页 |
4.4.1 工件中心坐标提取 | 第51页 |
4.4.2 工件旋转角度计算 | 第51页 |
4.5 本章小结 | 第51-53页 |
第五章 系统实验及结果分析 | 第53-65页 |
5.1 摄像机标定实验 | 第53-54页 |
5.2 机器人、视觉系统及传送带位置的标定实验 | 第54-57页 |
5.3 工件识别分类实验 | 第57-60页 |
5.4 工件中心及旋转角度提取实验 | 第60-61页 |
5.5 工件抓取实验 | 第61-63页 |
5.6 本章小结 | 第63-65页 |
第六章 总结与展望 | 第65-67页 |
6.1 本文工作总结 | 第65页 |
6.2 后续研究展望 | 第65-67页 |
参考文献 | 第67-71页 |
发表论文和参加科研情况 | 第71-73页 |
致谢 | 第73页 |