智能码垛机器人关键技术的研究及开发
| 摘要 | 第3-4页 |
| ABSTRACT | 第4-5页 |
| 第1章 绪论 | 第8-14页 |
| 1.1 研究背景 | 第8页 |
| 1.2 理论意义和研究价值 | 第8-9页 |
| 1.3 国内外研究现状及分析 | 第9-13页 |
| 1.3.1 国外研究现状及应用特点 | 第9-11页 |
| 1.3.2 国内研究现状及存在不足 | 第11-13页 |
| 1.4 主要研究内容 | 第13-14页 |
| 第2章 码垛机器人双目视觉系统 | 第14-40页 |
| 2.1 视觉系统工作流程及组成 | 第14-17页 |
| 2.1.1 视觉系统工作流程 | 第14-15页 |
| 2.1.2 机器人视觉系统的组成 | 第15-17页 |
| 2.2 双目视觉系统坐标系及摄像机模型 | 第17-25页 |
| 2.2.1 视觉成像坐标系系统 | 第17-19页 |
| 2.2.2 摄像机模型 | 第19-20页 |
| 2.2.3 双目视觉测量原理 | 第20-21页 |
| 2.2.4 双目视觉参数变换关系 | 第21-23页 |
| 2.2.5 双目视觉测量精度分析 | 第23-25页 |
| 2.3 双目视觉系统标定 | 第25-35页 |
| 2.3.1 摄像机标定方法 | 第25-27页 |
| 2.3.2 双目视觉立体标定 | 第27-28页 |
| 2.3.3 MATLAB标定工具箱标定实验 | 第28-32页 |
| 2.3.4 平面圆点靶标定实验 | 第32-35页 |
| 2.4 双目视觉箱体尺寸测量 | 第35-39页 |
| 2.4.1 图像预处理 | 第35-36页 |
| 2.4.2 图像特征提取 | 第36-37页 |
| 2.4.3 拟合直线求关键点 | 第37-38页 |
| 2.4.4 箱体三维尺寸测量 | 第38-39页 |
| 2.5 本章小结 | 第39-40页 |
| 第3章 运动学分析及轨迹规划 | 第40-50页 |
| 3.1 码垛机器人运动学求解 | 第40-45页 |
| 3.1.1 码垛机器人运动学正解 | 第40-43页 |
| 3.1.2 码垛机器人运动学逆解 | 第43-45页 |
| 3.2 码垛机器人工作过程坐标转换 | 第45-46页 |
| 3.3 码垛机器人轨迹规划 | 第46-49页 |
| 3.3.1 码垛机器人工作空间求解 | 第46-48页 |
| 3.3.2 码垛机器人轨迹规划 | 第48-49页 |
| 3.4 本章小结 | 第49-50页 |
| 第4章 多传感器信息融合码垛对象分类识别研究 | 第50-64页 |
| 4.1 多传感器信息融合技术概述 | 第50-51页 |
| 4.2 多传感器信息融合一般算法 | 第51-52页 |
| 4.3 多传感器信息信息融合方法的选取 | 第52-60页 |
| 4.3.1 传感器的选取及信号采集 | 第52-57页 |
| 4.3.2 多传感器信息融合算法的选择 | 第57-58页 |
| 4.3.3 BP神经网络算法 | 第58-60页 |
| 4.4 基于BP神经网络箱体类型识别方案设计 | 第60-63页 |
| 4.4.1 信息融合结构层次选择 | 第60-61页 |
| 4.4.2 信息融合工作流程 | 第61-62页 |
| 4.4.3 BP神经网络结构设计 | 第62-63页 |
| 4.5 本章小结 | 第63-64页 |
| 第5章 码垛机器人实验测试及性能分析 | 第64-76页 |
| 5.1 码垛机器人实验平台搭建及系统控制规划 | 第64-65页 |
| 5.2 码垛机器人工作对象测量实验 | 第65-67页 |
| 5.3 码垛机器人路径规划 | 第67-71页 |
| 5.3.1 起始点到安全位置的运动规划 | 第67-70页 |
| 5.3.2 安全位置到抓取点的规划 | 第70-71页 |
| 5.4 多传感器信息融合箱体识别测试 | 第71-75页 |
| 5.5 本章小结 | 第75-76页 |
| 第6章 结论 | 第76-78页 |
| 参考文献 | 第78-82页 |
| 致谢 | 第82-83页 |
| 攻读学位期间的研究成果 | 第83页 |