摘要 | 第5-6页 |
Abstract | 第6页 |
第一章 绪论 | 第9-19页 |
1.1 研究背景 | 第9-12页 |
1.1.1 遥操作机器人技术概述 | 第9-10页 |
1.1.2 人机交互设备 | 第10-11页 |
1.1.3 遥操作机器人中的传感器 | 第11-12页 |
1.2 国内外研究现状 | 第12-17页 |
1.2.1 国外研究现状 | 第12-15页 |
1.2.2 国内研究现状 | 第15-17页 |
1.3 论文研究的主要内容 | 第17页 |
1.4 论文组织结构 | 第17-19页 |
第二章 遥操作机器人实验系统方案设计 | 第19-37页 |
2.1 系统原理及组成 | 第19页 |
2.2 机器人运动解算 | 第19-21页 |
2.2.1 机器人的结构 | 第19-20页 |
2.2.2 基于KDL的机器人运动逆解算 | 第20-21页 |
2.3 三维虚拟环境 | 第21-25页 |
2.3.1 虚拟机器人建模 | 第22-23页 |
2.3.2 虚拟环境建模 | 第23-24页 |
2.3.3 环境光照及虚拟摄像头设置 | 第24-25页 |
2.4 目标物体的识别和建模 | 第25-30页 |
2.4.1 Kinect采集点云数据 | 第25-27页 |
2.4.2 RANSAC算法提取目标物体 | 第27-30页 |
2.5 遥操作机器人系统中的硬件设备 | 第30-35页 |
2.5.1 单目工业相机 | 第30-31页 |
2.5.2 六维力传感器 | 第31-33页 |
2.5.3 机械手 | 第33-34页 |
2.5.4 打磨刀具 | 第34-35页 |
2.6 本章小结 | 第35-37页 |
第三章 基于视觉引导的遥操作机器人目标分拣作业 | 第37-55页 |
3.1 目标匹配算法综述 | 第37-39页 |
3.2 基于超像素的模板创建方法 | 第39-43页 |
3.2.1 图像的超像素处理 | 第39-42页 |
3.2.2 GrabCut图像分割 | 第42-43页 |
3.3 基于映射图的图像匹配算法 | 第43-45页 |
3.4 MB-NCC算法的具体实施方式 | 第45-47页 |
3.4.1 示教模式:模板创建 | 第45-47页 |
3.4.2 自主模式:MB-NCC目标匹配 | 第47页 |
3.5 实验结果与分析 | 第47-54页 |
3.5.1 SB-GrabCut图像分割实验 | 第47-50页 |
3.5.2 MB-NCC目标匹配实验 | 第50-54页 |
3.6 本章小结 | 第54-55页 |
第四章 基于多传感器融合技术的遥操作机器人打磨作业 | 第55-73页 |
4.1 铸件识别算法概述 | 第56页 |
4.2 基于边缘特征的模板图像 | 第56-58页 |
4.3 GB-NCC边缘特征模板匹配 | 第58页 |
4.4 基于六维力传感器引导的打磨作业 | 第58-61页 |
4.4.1 PID算法简介 | 第59-60页 |
4.4.2 基于PID控制的自主打磨作业 | 第60-61页 |
4.5 打磨作业具体实施方式 | 第61-63页 |
4.5.1 示教模式:创建模板图像并记录打磨参数 | 第61-63页 |
4.5.2 自主模式:多传感器融合的自主打磨作业 | 第63页 |
4.6 实验结果与分析 | 第63-71页 |
4.6.1 铸件识别效果实验 | 第63-66页 |
4.6.2 铸件打磨效果实验 | 第66-71页 |
4.7 本章小结 | 第71-73页 |
第五章 总结与展望 | 第73-75页 |
5.1 工作总结 | 第73-74页 |
5.2 创新点 | 第74页 |
5.3 未来工作的展望 | 第74-75页 |
致谢 | 第75-77页 |
作者在学期间的成果 | 第77-79页 |
参考文献 | 第79-80页 |