摘要 | 第4-5页 |
Abstract | 第5-6页 |
第1章 绪论 | 第9-16页 |
1.1 课题来源 | 第9页 |
1.2 课题研究的目的和意义 | 第9页 |
1.3 论文研究的国内外发展现状 | 第9-14页 |
1.4 论文结构安排 | 第14-16页 |
第2章 基于视觉引导的搬运机器人系统设计 | 第16-25页 |
2.1 视觉引导机器人系统功能与技术要求 | 第16-18页 |
2.1.1 视觉引导机器人系统功能 | 第16-17页 |
2.1.2 视觉引导机器人系统的工作流程 | 第17页 |
2.1.3 视觉引导机器人系统技术要求 | 第17-18页 |
2.2 视觉引导机器人系统的硬件设计 | 第18-21页 |
2.2.1 EPSON六自由度机器人系统 | 第18页 |
2.2.2 系统相机及镜头的选用 | 第18-19页 |
2.2.3 PC机及图像采集卡 | 第19-21页 |
2.3 视觉引导搬运机器人系统软件工作流程 | 第21-22页 |
2.3.1 相机坐标系与机器人世界坐标系转换 | 第21-22页 |
2.3.2 多种目标工件的识别 | 第22页 |
2.3.3 目标工件的实时位置确定 | 第22页 |
2.4 EPSON机器人的运动控制实现 | 第22-24页 |
2.5 本章小结 | 第24-25页 |
第3章 视觉引导系统数学模型建立 | 第25-40页 |
3.1 相机坐标系和固定靶标坐标系的转换矩阵 | 第25-31页 |
3.1.1 小孔模型 | 第25-27页 |
3.1.2 相机的内参数模型 | 第27-29页 |
3.1.3 相机的内参数标定实验 | 第29-30页 |
3.1.4 相机外参数模型 | 第30页 |
3.1.5 相机的外参数标定实验 | 第30-31页 |
3.2 机器人世界坐标系和固定靶标坐标系的转换矩阵 | 第31-36页 |
3.2.1 直接标定法求转换矩阵 | 第31-36页 |
3.2.2 结果验证 | 第36页 |
3.3 视觉系统 2D模型 | 第36-39页 |
3.4 本章小结 | 第39-40页 |
第4章 目标工件的识别与定位方法 | 第40-61页 |
4.1 图像预处理算法 | 第40-45页 |
4.1.1 图像的平滑处理 | 第40-42页 |
4.1.2 二值化处理 | 第42-43页 |
4.1.3 图像的边缘检测和轮廓处理 | 第43-45页 |
4.2 模板匹配方法 | 第45-55页 |
4.2.1 相关系数的方法 | 第45-46页 |
4.2.2 SSDA法 | 第46-47页 |
4.2.3 Hu不变矩 | 第47-50页 |
4.2.4 Zernike矩 | 第50-55页 |
4.3 提高目标识别速度的方法 | 第55-56页 |
4.4 目标工件的定位算法 | 第56-60页 |
4.5 本章小结 | 第60-61页 |
第5章 搬运机器人抓取姿态验证 | 第61-76页 |
5.1 搬运机器人位置描述矩阵 | 第61-62页 |
5.2 搬运机器人运动学分析 | 第62-70页 |
5.3 搬运机器人运动学仿真 | 第70-73页 |
5.4 搬运机器人抓取实验 | 第73-75页 |
5.5 本章小结 | 第75-76页 |
第6章 总结与展望 | 第76-78页 |
6.1 总结 | 第76页 |
6.2 展望 | 第76-78页 |
参考文献 | 第78-81页 |
致谢 | 第81页 |