摘要 | 第5-7页 |
Abstract | 第7-8页 |
第1章 绪论 | 第12-22页 |
1.1 研究背景及意义 | 第12-13页 |
1.2 机器人视觉伺服 | 第13-17页 |
1.2.1 机器人视觉伺服发展概述 | 第13-14页 |
1.2.2 机器人视觉伺服系统分类 | 第14-17页 |
1.3 机器人无标定视觉伺服 | 第17-20页 |
1.3.1 问题的提出 | 第17页 |
1.3.2 机器人无标定视觉伺服国内外研究现状 | 第17-20页 |
1.4 论文的主要研究内容及结构安排 | 第20-22页 |
1.4.1 主要研究内容 | 第20-21页 |
1.4.2 结构安排 | 第21-22页 |
第2章 基于图像的无标定视觉伺服 | 第22-32页 |
2.1 机器人视觉伺服基础知识 | 第22-26页 |
2.1.1 坐标系关系 | 第22页 |
2.1.2 摄像机模型 | 第22-24页 |
2.1.3 机器人运动学模型 | 第24-25页 |
2.1.4 机器人雅可比矩阵 | 第25页 |
2.1.5 图像特征的选取 | 第25-26页 |
2.2 图像雅可比矩阵 | 第26-28页 |
2.2.1 图像雅可比矩阵的定义 | 第26-27页 |
2.2.2 图像雅可比矩阵的推导实例 | 第27-28页 |
2.3 无标定视觉伺服算法 | 第28-31页 |
2.3.1 非线性方差最小化法求解关节角 | 第29-30页 |
2.3.2 Broyden法估计图像雅可比矩阵 | 第30-31页 |
2.4 本章小结 | 第31-32页 |
第3章 基于平方根无迹卡尔曼滤波的图像雅可比矩阵在线估计方法 | 第32-42页 |
3.1 引言 | 第32-33页 |
3.2 平方根无迹卡尔曼滤波算法原理 | 第33-36页 |
3.2.1 无迹变换(Unscented Transform) | 第33-34页 |
3.2.2 平方根无迹卡尔曼滤波实现步骤 | 第34-36页 |
3.3 基于SR-UKF的图像雅可比矩阵在线估计 | 第36-38页 |
3.3.1 总图像雅可比矩阵 | 第36-37页 |
3.3.2 基于SR-UKF的总图像雅可比矩阵在线估计 | 第37-38页 |
3.4 仿真实验 | 第38-41页 |
3.4.1 跟踪圆周运动目标 | 第38-39页 |
3.4.2 跟踪方形运动目标 | 第39-41页 |
3.5 本章小结 | 第41-42页 |
第4章 基于在线支持向量回归的图像雅可比矩阵在线估计方法 | 第42-55页 |
4.1 引言 | 第42-43页 |
4.2 在线支持向量回归算法原理 | 第43-48页 |
4.2.1 支持向量回归 | 第43-46页 |
4.2.2 基于增量学习的OL-SVR | 第46-48页 |
4.3 基于在线支持向量回归的图像雅可比矩阵在线估计 | 第48-50页 |
4.4 仿真实验 | 第50-54页 |
4.4.1 定位静止目标 | 第50-52页 |
4.4.2 跟踪运动目标 | 第52-54页 |
4.5 本章小结 | 第54-55页 |
第5章 基于图像雅可比矩阵的无标定视觉伺服实验研究 | 第55-69页 |
5.1 系统硬件结构 | 第55-58页 |
5.1.1 工业机器人系统 | 第56-57页 |
5.1.2 工业相机 | 第57-58页 |
5.1.3 主控计算机 | 第58页 |
5.2 系统软件结构 | 第58-62页 |
5.2.1 图像采集处理与图像特征提取 | 第59-60页 |
5.2.2 机器人控制 | 第60页 |
5.2.3 人机交互界面 | 第60-62页 |
5.3 三自由度无标定视觉定位实验 | 第62-68页 |
5.3.1 基于平方根无迹卡尔曼滤波的无标定视觉定位实验 | 第62-65页 |
5.3.2 基于在线支持向量回归的无标定视觉定位实验 | 第65-68页 |
5.4 本章小结 | 第68-69页 |
结论与展望 | 第69-71页 |
论文总结 | 第69-70页 |
论文不足及展望 | 第70-71页 |
参考文献 | 第71-75页 |
致谢 | 第75-76页 |
附录A 攻读学位期间所发表的学术成果 | 第76页 |