首页--工业技术论文--自动化技术、计算机技术论文--自动化技术及设备论文--机器人技术论文--机器人论文

基于力觉与视觉交互的机器人操控技术研究

摘要第4-5页
Abstract第5页
注释表第11-12页
第一章 绪论第12-22页
    1.1 课题的研究背景第12-14页
        1.1.1 课题概述第12-13页
        1.1.2 课题研究的目的及意义第13-14页
    1.2 机器人力觉/视觉交互操作技术研究综述第14-20页
        1.2.1 机器人遥操作技术第14-17页
        1.2.2 机器视觉与虚拟现实第17-18页
        1.2.3 力觉临场感与虚拟夹具第18-20页
    1.3 论文主要研究内容第20-22页
第二章 机器人动力学建模第22-44页
    2.1 位置与姿态描述第22-24页
    2.2 旋量理论第24页
    2.3 刚体运动的旋量表示第24-28页
        2.3.1 刚体旋转的指数坐标第24-26页
        2.3.2 三维空间中的刚体运动第26页
        2.3.3 刚体运动的指数坐标和运动旋量第26-28页
    2.4 机器人运动学第28-36页
        2.4.1 IRB2400工业机器人及其特性和结构参数第29页
        2.4.2 运动学正解第29-32页
        2.4.3 运动学逆解第32-36页
    2.5 机器人雅克比矩阵第36-37页
        2.5.1 机器人末端速度第36-37页
    2.6 机器人动力学第37-43页
        2.6.1 拉格朗日法动力学推导第37-38页
        2.6.2 三自由度串联机器人的动力学第38-43页
    2.7 本章小结第43-44页
第三章 基于力觉与视觉交互的机器人操控第44-56页
    3.1 基于点云交互技术的力觉临场感第44-49页
        3.1.1 点云交互下禁止虚拟夹具的构建第44-47页
        3.1.2 点云交互下引导虚拟夹具的构建第47-49页
    3.2 近距离引导阶段基于力传感器数据的力觉临场感第49-54页
        3.2.1 机器人力控制方法第49-50页
        3.2.2 三自由度平面机器人阻抗控制第50-54页
    3.3 本章小结第54-56页
第四章 视觉/力觉交互设备及其数据处理第56-65页
    4.1 彩色深度摄像机MIRCROSOFT KINECT第56-63页
        4.1.1 Kinect深度信息获取原理第57页
        4.1.2 Kinect深度相机内部参数标定第57-59页
        4.1.3 Kinect深度相机外部参数标定第59-61页
        4.1.4 Kinect深度图像预处理第61-63页
        4.1.5 Kinect彩色与深度图像配准第63页
    4.2 力反馈操控设备NOVINT FALCON第63-64页
    4.3 本章小结第64-65页
第五章 力觉与视觉信息融合的机器人操控技术实验第65-80页
    5.1 实验系统组成第65-67页
        5.1.1 硬件组成第65-66页
        5.1.2 软件组成第66-67页
        5.1.3 系统架构第67页
    5.2 实验过程与分析第67-79页
        5.2.1 机器人模型在Open GL环境下的绘制第67-69页
        5.2.2 Kinect深度相机彩色相机标定与配准第69-71页
        5.2.3 Kinect深度摄像外参标定第71-72页
        5.2.4 禁止虚拟夹具辅助下点云交互力觉临场感实验第72-75页
        5.2.5 力觉视觉信息辅助的机器人模块装配实验第75-79页
    5.3 本章小结第79-80页
第六章 总结与展望第80-82页
    6.1 论文研究工作总结第80-81页
    6.2 下一步工作展望第81-82页
参考文献第82-86页
致谢第86-87页
在校期间的研究成果及发表的学术论文情况第87页

论文共87页,点击 下载论文
上一篇:基于差分进化和自适应遗传算法的矩形件排样方法研究
下一篇:智能水滴算法及其在旅行商中的应用