基于视觉伺服的机器人抓取关键技术研究
学位论文数据集 | 第3-4页 |
摘要 | 第4-6页 |
ABSTRACT | 第6-7页 |
第一章 绪论 | 第14-24页 |
1.1 课题研究的背景和意义 | 第14-15页 |
1.2 机器视觉概述及与研究现状 | 第15-18页 |
1.2.1 机器视觉概述 | 第15-16页 |
1.2.2 国内外研究现状 | 第16-18页 |
1.3 本文所涉及关键技术 | 第18-20页 |
1.3.1 透明物体检测 | 第18-19页 |
1.3.2 机器人抓取位置检测 | 第19-20页 |
1.4 本文涉及的其它关键技术 | 第20-21页 |
1.4.1 机器人仿真系统 | 第20-21页 |
1.4.2 网络通信技术 | 第21页 |
1.5 本文主要研究内容 | 第21-24页 |
第二章 环境信息获取与数据预处理 | 第24-44页 |
2.1 获取环境信息数据 | 第24-27页 |
2.2 相机校准 | 第27-38页 |
2.2.1 摄像机单目标定模型 | 第28-30页 |
2.2.2 摄像机单目标定原理及结果 | 第30-35页 |
2.2.3 摄像机双目标定 | 第35-37页 |
2.2.4 摄像机双目矫正 | 第37-38页 |
2.3 点云的预处理 | 第38-43页 |
2.3.1 点云滤波 | 第38-40页 |
2.3.2 点云平面移除 | 第40-42页 |
2.3.3 欧式聚类 | 第42-43页 |
2.4 本章小结 | 第43-44页 |
第三章 透明物体的检测 | 第44-54页 |
3.1 透明物体识别 | 第44-49页 |
3.1.1 透明物体候选区域 | 第44-47页 |
3.1.2 候选对象分类 | 第47-49页 |
3.2 物体三维模型建立 | 第49-53页 |
3.2.1 物体轮廓提取 | 第50-51页 |
3.2.2 三维重建 | 第51-52页 |
3.2.3 物体定位 | 第52-53页 |
3.3 本章小结 | 第53-54页 |
第四章 基于物体形状的抓取位置检测 | 第54-66页 |
4.1 物体分割 | 第54-59页 |
4.1.1 超体聚类 | 第54-56页 |
4.1.2 基于点云凹凸性的物体分割 | 第56-59页 |
4.2 物体抓取模型 | 第59-64页 |
4.2.1 深度图像梯度计算 | 第59-60页 |
4.2.2 最佳抓取位置 | 第60-64页 |
4.3 本章小结 | 第64-66页 |
第五章 机器人运动学解与手眼系统搭建 | 第66-84页 |
5.1 机器人运动建模 | 第66-73页 |
5.1.1 RV-4F-D机器人相关参数 | 第66-67页 |
5.1.2 机器人末端执行器的表示方法 | 第67-68页 |
5.1.3 机器人正运动学解析 | 第68-71页 |
5.1.4 机器人逆运动学解析 | 第71-73页 |
5.2 机器人Eye-in-Hand手眼标定 | 第73-80页 |
5.2.1 手眼标定模型 | 第74-75页 |
5.2.2 手眼标定 | 第75-78页 |
5.2.3 手眼标定方法的改进 | 第78-79页 |
5.2.4 手眼标定结果 | 第79-80页 |
5.3 机器人在线控制 | 第80-83页 |
5.3.1 机器人编程 | 第80-82页 |
5.3.2 机器人与上位机通讯 | 第82-83页 |
5.4 本章小结 | 第83-84页 |
第六章 机器人智能抓取系统的实现与验证 | 第84-100页 |
6.1 硬件系统与软件系统的组成 | 第84-85页 |
6.2 机器人运动学模拟 | 第85-89页 |
6.2.1 机器人3D建模 | 第85-86页 |
6.2.2 模型导入V-rep | 第86-88页 |
6.2.3 V-rep中模型的控制 | 第88-89页 |
6.3 自动抓取实验 | 第89-99页 |
6.4 本章小结 | 第99-100页 |
第七章 总结与展望 | 第100-102页 |
参考文献 | 第102-106页 |
致谢 | 第106-108页 |
研究成果及发表的学术论文 | 第108-110页 |
作者及导师简介 | 第110-112页 |
附件 | 第112-113页 |