摘要 | 第5-7页 |
Abstract | 第7-9页 |
主要符号表 | 第13-14页 |
第一章 绪论 | 第14-31页 |
1.1 机器视觉立体测量研究现状 | 第14-22页 |
1.1.1 单目视觉立体测量研究现状 | 第15-19页 |
1.1.2 双目视觉与结构光系统测量研究现状 | 第19-21页 |
1.1.3 点云数据处理研究现状 | 第21-22页 |
1.2 机器视觉引导工业机器人研究现状 | 第22-24页 |
1.3 柔性物体自动装载技术现状 | 第24-26页 |
1.4 课题来源、技术难点及研究内容 | 第26-31页 |
1.4.1 课题来源 | 第26-27页 |
1.4.2 技术难点分析 | 第27-28页 |
1.4.3 研究内容 | 第28-31页 |
第二章 单、双目视觉与结构光系统模型 | 第31-67页 |
2.1 单目视觉测量模型 | 第31-40页 |
2.1.1 摄像机模型与单目标定 | 第31-34页 |
2.1.2 单目视觉解析几何测量 | 第34-38页 |
2.1.3 单目视觉坐标系方程模型 | 第38-40页 |
2.2 双目视觉测量模型 | 第40-56页 |
2.2.1 双目视觉模型与标定 | 第40-43页 |
2.2.2 基于ICP算法的双目标定改进方法 | 第43-50页 |
2.2.3 基于P-KLT算法的双目稀疏点云获取 | 第50-56页 |
2.3 结构光系统测量模型 | 第56-66页 |
2.3.1 结构光系统模型与标定 | 第56-60页 |
2.3.2 基于结构光的双目立体标定方法 | 第60-64页 |
2.3.3 基于结构光系统的稠密点云获取 | 第64-66页 |
2.4 本章小结 | 第66-67页 |
第三章 基于图像的点云分割与配准模型 | 第67-101页 |
3.1 基于单目视觉的结构光点云分割方法 | 第67-79页 |
3.1.1 基于图像阈值的点云分割 | 第68-70页 |
3.1.2 基于靶标世界坐标系的点云分割 | 第70-71页 |
3.1.3 基于变换视角的点云分割 | 第71-74页 |
3.1.4 结果对比 | 第74-79页 |
3.2 基于摄像机位姿估计的点云初始配准 | 第79-89页 |
3.2.1 摄像机位姿估计模型 | 第80-82页 |
3.2.2 双目视觉的点云初始配准模型 | 第82-83页 |
3.2.3 单目结构光的点云初始配准模型 | 第83-85页 |
3.2.4 实验结果分析 | 第85-89页 |
3.3 基于图像特征点的点云初始配准方法 | 第89-99页 |
3.3.1 系统结构与模型 | 第90-91页 |
3.3.2 基于改进最小二乘法的刚体位姿误差剔除 | 第91-93页 |
3.3.3 实验结果分析 | 第93-98页 |
3.3.4 方法对比 | 第98-99页 |
3.4 本章小结 | 第99-101页 |
第四章 机器人轨迹最优规划与手眼标定 | 第101-123页 |
4.1 工业机器人轨迹规划模型 | 第101-104页 |
4.1.1 关节空间轨迹规划 | 第102-103页 |
4.1.2 三次B样条曲线 | 第103-104页 |
4.2 基于量子遗传算法的轨迹规划方法 | 第104-110页 |
4.2.1 量子遗传算法 | 第105-106页 |
4.2.2 适应度函数 | 第106-107页 |
4.2.3 仿真实验 | 第107-110页 |
4.3 基于改进果蝇寻优轨迹规划方法 | 第110-115页 |
4.3.1 果蝇寻优算法 | 第111-112页 |
4.3.2 改进方法模型 | 第112-113页 |
4.3.3 仿真实验 | 第113-115页 |
4.3.4 两种方法对比 | 第115页 |
4.4 基于Halcon平台的手眼标定与识别 | 第115-121页 |
4.4.1 Eye-in-Hand的手眼标定 | 第117-119页 |
4.4.2 Eye-to-Hand的手眼标定 | 第119-120页 |
4.4.3 目标物的识别定位 | 第120-121页 |
4.5 本章小结 | 第121-123页 |
第五章 可容空间内目标位姿估计与机器人抓取 | 第123-146页 |
5.1 基于IFOA的目标物在可容空间中的位姿估计 | 第123-133页 |
5.1.1 基本模型 | 第125-126页 |
5.1.2 目标函数 | 第126-127页 |
5.1.3 目标物姿态寻优算法 | 第127-129页 |
5.1.4 仿真实验 | 第129-133页 |
5.2 机器人智能抓取与可容空间位姿估计实验 | 第133-145页 |
5.2.1 工业机器人场景的搭建 | 第134-135页 |
5.2.2 应用双目视觉的点云模型获取 | 第135-136页 |
5.2.3 应用图像特征点的随机物体点云配准 | 第136-138页 |
5.2.4 引入重力约束的物体位姿估计优化 | 第138-140页 |
5.2.5 机器人抓取与可容空间位姿估计 | 第140-145页 |
5.3 本章小结 | 第145-146页 |
结论与展望 | 第146-149页 |
参考文献 | 第149-158页 |
攻读博士学位期间取得的研究成果 | 第158-159页 |
致谢 | 第159-160页 |
附件 | 第160页 |