首页--工业技术论文--自动化技术、计算机技术论文--自动化技术及设备论文--机器人技术论文--机器人论文

机器人智能抓取与可容空间位姿估计研究

摘要第5-7页
Abstract第7-9页
主要符号表第13-14页
第一章 绪论第14-31页
    1.1 机器视觉立体测量研究现状第14-22页
        1.1.1 单目视觉立体测量研究现状第15-19页
        1.1.2 双目视觉与结构光系统测量研究现状第19-21页
        1.1.3 点云数据处理研究现状第21-22页
    1.2 机器视觉引导工业机器人研究现状第22-24页
    1.3 柔性物体自动装载技术现状第24-26页
    1.4 课题来源、技术难点及研究内容第26-31页
        1.4.1 课题来源第26-27页
        1.4.2 技术难点分析第27-28页
        1.4.3 研究内容第28-31页
第二章 单、双目视觉与结构光系统模型第31-67页
    2.1 单目视觉测量模型第31-40页
        2.1.1 摄像机模型与单目标定第31-34页
        2.1.2 单目视觉解析几何测量第34-38页
        2.1.3 单目视觉坐标系方程模型第38-40页
    2.2 双目视觉测量模型第40-56页
        2.2.1 双目视觉模型与标定第40-43页
        2.2.2 基于ICP算法的双目标定改进方法第43-50页
        2.2.3 基于P-KLT算法的双目稀疏点云获取第50-56页
    2.3 结构光系统测量模型第56-66页
        2.3.1 结构光系统模型与标定第56-60页
        2.3.2 基于结构光的双目立体标定方法第60-64页
        2.3.3 基于结构光系统的稠密点云获取第64-66页
    2.4 本章小结第66-67页
第三章 基于图像的点云分割与配准模型第67-101页
    3.1 基于单目视觉的结构光点云分割方法第67-79页
        3.1.1 基于图像阈值的点云分割第68-70页
        3.1.2 基于靶标世界坐标系的点云分割第70-71页
        3.1.3 基于变换视角的点云分割第71-74页
        3.1.4 结果对比第74-79页
    3.2 基于摄像机位姿估计的点云初始配准第79-89页
        3.2.1 摄像机位姿估计模型第80-82页
        3.2.2 双目视觉的点云初始配准模型第82-83页
        3.2.3 单目结构光的点云初始配准模型第83-85页
        3.2.4 实验结果分析第85-89页
    3.3 基于图像特征点的点云初始配准方法第89-99页
        3.3.1 系统结构与模型第90-91页
        3.3.2 基于改进最小二乘法的刚体位姿误差剔除第91-93页
        3.3.3 实验结果分析第93-98页
        3.3.4 方法对比第98-99页
    3.4 本章小结第99-101页
第四章 机器人轨迹最优规划与手眼标定第101-123页
    4.1 工业机器人轨迹规划模型第101-104页
        4.1.1 关节空间轨迹规划第102-103页
        4.1.2 三次B样条曲线第103-104页
    4.2 基于量子遗传算法的轨迹规划方法第104-110页
        4.2.1 量子遗传算法第105-106页
        4.2.2 适应度函数第106-107页
        4.2.3 仿真实验第107-110页
    4.3 基于改进果蝇寻优轨迹规划方法第110-115页
        4.3.1 果蝇寻优算法第111-112页
        4.3.2 改进方法模型第112-113页
        4.3.3 仿真实验第113-115页
        4.3.4 两种方法对比第115页
    4.4 基于Halcon平台的手眼标定与识别第115-121页
        4.4.1 Eye-in-Hand的手眼标定第117-119页
        4.4.2 Eye-to-Hand的手眼标定第119-120页
        4.4.3 目标物的识别定位第120-121页
    4.5 本章小结第121-123页
第五章 可容空间内目标位姿估计与机器人抓取第123-146页
    5.1 基于IFOA的目标物在可容空间中的位姿估计第123-133页
        5.1.1 基本模型第125-126页
        5.1.2 目标函数第126-127页
        5.1.3 目标物姿态寻优算法第127-129页
        5.1.4 仿真实验第129-133页
    5.2 机器人智能抓取与可容空间位姿估计实验第133-145页
        5.2.1 工业机器人场景的搭建第134-135页
        5.2.2 应用双目视觉的点云模型获取第135-136页
        5.2.3 应用图像特征点的随机物体点云配准第136-138页
        5.2.4 引入重力约束的物体位姿估计优化第138-140页
        5.2.5 机器人抓取与可容空间位姿估计第140-145页
    5.3 本章小结第145-146页
结论与展望第146-149页
参考文献第149-158页
攻读博士学位期间取得的研究成果第158-159页
致谢第159-160页
附件第160页

论文共160页,点击 下载论文
上一篇:基于路径重积分特征和深度学习方法的轨迹数据的表征和识别
下一篇:非约束条件下人脸表情识别问题的研究