首页--工业技术论文--自动化技术、计算机技术论文--自动化技术及设备论文--机器人技术论文--机器人论文

基于多传感器融合的半自主式遥操作机器人控制技术研究

摘要第5-6页
Abstract第6页
第一章 绪论第9-19页
    1.1 研究背景第9-12页
        1.1.1 遥操作机器人技术概述第9-10页
        1.1.2 人机交互设备第10-11页
        1.1.3 遥操作机器人中的传感器第11-12页
    1.2 国内外研究现状第12-17页
        1.2.1 国外研究现状第12-15页
        1.2.2 国内研究现状第15-17页
    1.3 论文研究的主要内容第17页
    1.4 论文组织结构第17-19页
第二章 遥操作机器人实验系统方案设计第19-37页
    2.1 系统原理及组成第19页
    2.2 机器人运动解算第19-21页
        2.2.1 机器人的结构第19-20页
        2.2.2 基于KDL的机器人运动逆解算第20-21页
    2.3 三维虚拟环境第21-25页
        2.3.1 虚拟机器人建模第22-23页
        2.3.2 虚拟环境建模第23-24页
        2.3.3 环境光照及虚拟摄像头设置第24-25页
    2.4 目标物体的识别和建模第25-30页
        2.4.1 Kinect采集点云数据第25-27页
        2.4.2 RANSAC算法提取目标物体第27-30页
    2.5 遥操作机器人系统中的硬件设备第30-35页
        2.5.1 单目工业相机第30-31页
        2.5.2 六维力传感器第31-33页
        2.5.3 机械手第33-34页
        2.5.4 打磨刀具第34-35页
    2.6 本章小结第35-37页
第三章 基于视觉引导的遥操作机器人目标分拣作业第37-55页
    3.1 目标匹配算法综述第37-39页
    3.2 基于超像素的模板创建方法第39-43页
        3.2.1 图像的超像素处理第39-42页
        3.2.2 GrabCut图像分割第42-43页
    3.3 基于映射图的图像匹配算法第43-45页
    3.4 MB-NCC算法的具体实施方式第45-47页
        3.4.1 示教模式:模板创建第45-47页
        3.4.2 自主模式:MB-NCC目标匹配第47页
    3.5 实验结果与分析第47-54页
        3.5.1 SB-GrabCut图像分割实验第47-50页
        3.5.2 MB-NCC目标匹配实验第50-54页
    3.6 本章小结第54-55页
第四章 基于多传感器融合技术的遥操作机器人打磨作业第55-73页
    4.1 铸件识别算法概述第56页
    4.2 基于边缘特征的模板图像第56-58页
    4.3 GB-NCC边缘特征模板匹配第58页
    4.4 基于六维力传感器引导的打磨作业第58-61页
        4.4.1 PID算法简介第59-60页
        4.4.2 基于PID控制的自主打磨作业第60-61页
    4.5 打磨作业具体实施方式第61-63页
        4.5.1 示教模式:创建模板图像并记录打磨参数第61-63页
        4.5.2 自主模式:多传感器融合的自主打磨作业第63页
    4.6 实验结果与分析第63-71页
        4.6.1 铸件识别效果实验第63-66页
        4.6.2 铸件打磨效果实验第66-71页
    4.7 本章小结第71-73页
第五章 总结与展望第73-75页
    5.1 工作总结第73-74页
    5.2 创新点第74页
    5.3 未来工作的展望第74-75页
致谢第75-77页
作者在学期间的成果第77-79页
参考文献第79-80页

论文共80页,点击 下载论文
上一篇:基于半监督学习的微博水军识别系统的研究与实现
下一篇:无线传感器网络分布式协同定位算法的研究