摘要 | 第5-7页 |
ABSTRACT | 第7-9页 |
第一章 绪论 | 第15-32页 |
1.1 研究工作的背景与意义 | 第15-17页 |
1.2 国内外研究历史与现状 | 第17-20页 |
1.3 机器人视觉控制系统的分类及结构形式 | 第20-29页 |
1.3.1 静态与动态视觉反馈控制 | 第20-21页 |
1.3.2 目标图像特征的选取与匹配 | 第21-22页 |
1.3.3 单目、双目与多目相机视觉系统 | 第22-24页 |
1.3.4 基于位置与基于图像的视觉控制系统 | 第24-26页 |
1.3.5 基于标定与基于无标定的视觉控制系统 | 第26-29页 |
1.3.5.1 相机内参数标定方法 | 第27-28页 |
1.3.5.2 相机外参数与手眼标定方法 | 第28-29页 |
1.4 本论文的主要内容与结构 | 第29-32页 |
第二章 视觉机器人控制理论基础 | 第32-42页 |
2.1 齐次坐标变换 | 第32-34页 |
2.2 机器人运动学模型 | 第34-37页 |
2.2.1 连杆参数与运动学方程 | 第34-35页 |
2.2.1.1 SCARA机器人运动学模型 | 第34-35页 |
2.2.2 微分运动与雅各比矩阵 | 第35-37页 |
2.3 机器人动力学模型 | 第37-40页 |
2.3.1 机器人拉格朗日动力学 | 第38-40页 |
2.3.2 SCARA机器人动力学模型 | 第40页 |
2.4 相机小孔成像模型 | 第40-42页 |
第三章 基于Phong模型的快速透视变换匹配算法 | 第42-65页 |
3.1 引言 | 第42-44页 |
3.2 透视变换匹配算法原理 | 第44-48页 |
3.2.1 抗遮挡、混乱与非线性光照变化的形状匹配算法 | 第45-47页 |
3.2.1.1 图像边缘提取算法 | 第45-46页 |
3.2.1.2 基于边缘的形状匹配算法 | 第46-47页 |
3.2.2 透视变换匹配算法 | 第47-48页 |
3.3 快速透视变换匹配算法流程说明及模块介绍 | 第48-50页 |
3.4 目标姿态预测模块原理 | 第50-56页 |
3.4.1 目标姿态计算原理与方法 | 第50-51页 |
3.4.2 目标姿态预测矩阵 | 第51-52页 |
3.4.3 光照模型原理及其建立方法 | 第52-55页 |
3.4.3.1 BRDF基本原理与Phong光照模型 | 第52-53页 |
3.4.3.2 相机辐射度模型 | 第53-55页 |
3.4.3.3 系统光照模型建立与模型参数计算的方法 | 第55页 |
3.4.4 目标倾斜角度估算方法 | 第55-56页 |
3.5 实验结果与分析 | 第56-64页 |
3.5.1 建立光照模型预测目标倾斜角度 | 第56-59页 |
3.5.2 目标倾斜角度估算结果及误差分析 | 第59-60页 |
3.5.3 使用目标姿态预测方法提高匹配算法速度的实验结果 | 第60-64页 |
3.6 本章小结 | 第64-65页 |
第四章 补强片自动贴片系统高精度Eye-in-hand标定方法 | 第65-88页 |
4.1 引言 | 第65-67页 |
4.2 ASB系统多目手眼视觉模块 | 第67-68页 |
4.3 Eye-to-hand标定原理与方法 | 第68-69页 |
4.4 Eye-in-hand标定原理与方法 | 第69-78页 |
4.4.1 Eye-in-hand标定模型运动约束条件分析 | 第69-72页 |
4.4.1.1 SCARA机器人Eye-in-hand标定运动约束条件 | 第70-71页 |
4.4.1.2 ASB系统Eye-in-hand标定运动约束条件 | 第71-72页 |
4.4.2 Eye-in-hand二维标定模型 | 第72-74页 |
4.4.3 Eye-in-hand三维标定模型 | 第74-78页 |
4.5 实验结果与分析 | 第78-86页 |
4.5.1 Eye-in-hand标定模型计算误差及其分析 | 第78-82页 |
4.5.1.1 相机垂直度存在偏差时标定模型计算误差 | 第78-81页 |
4.5.1.2 相机垂直度偏差较小时标定模型计算误差 | 第81-82页 |
4.5.2 手眼标定矩阵Z方向平移分量修正结果与分析 | 第82-86页 |
4.5.2.1 标定板高度修正结果 | 第82-85页 |
4.5.2.2 吸附平台高度修正结果 | 第85-86页 |
4.6 本章小结 | 第86-88页 |
第五章 补强片自动贴片系统手眼标定及误差补偿方法 | 第88-116页 |
5.1 引言 | 第88-92页 |
5.2 ASB系统标定方法 | 第92-95页 |
5.2.1 相机标定方法 | 第92页 |
5.2.2 ASB系统手眼标定方法 | 第92-95页 |
5.2.2.1 固定相机坐标系与机器人基础坐标系间的坐标转换原理 | 第93-94页 |
5.2.2.2 移动相机坐标系与机器人基础坐标系间的坐标转换原理 | 第94-95页 |
5.3 ASB系统贴装误差分析与误差补偿方法 | 第95-102页 |
5.3.1 视觉机器人微分运动模型与运动学误差 | 第95-98页 |
5.3.2 机器人运动路径计算方法 | 第98-99页 |
5.3.3 基于手眼标定误差的非完整误差模型 | 第99-100页 |
5.3.4 考虑工具运行动作误差的完整误差模型 | 第100-102页 |
5.4 实验结果 | 第102-114页 |
5.4.1 ASB系统手眼标定结果 | 第102-104页 |
5.4.2 建立ASB系统的误差模型 | 第104-108页 |
5.4.3 贴装误差补偿结果 | 第108-114页 |
5.4.3.1 基于非完整误差模型的误差补偿结果 | 第108-110页 |
5.4.3.2 基于完整误差模型的误差补偿结果 | 第110-113页 |
5.4.3.3 工具旋转中心的误差轨迹 | 第113-114页 |
5.5 本章小结 | 第114-116页 |
第六章 无需图像速度测量的机器人无标定视觉伺服 | 第116-141页 |
6.1 引言 | 第116-118页 |
6.2 机器人视觉轨迹跟踪基本原理 | 第118-126页 |
6.2.1 视觉机器人运动学模型 | 第118-122页 |
6.2.1.1 视觉模块中的相机模型 | 第118-119页 |
6.2.1.2 机器人运动学模型 | 第119-121页 |
6.2.1.3 视觉机器人雅各比矩阵 | 第121-122页 |
6.2.2 机器人动力学模型与特性 | 第122页 |
6.2.3 运动学参数不确定视觉伺服 | 第122-124页 |
6.2.4 运动学与动力学参数不确定视觉伺服 | 第124-126页 |
6.3 控制器设计 | 第126-130页 |
6.3.1 控制器设计分析 | 第126页 |
6.3.2 滑模矢量设计分析 | 第126-129页 |
6.3.2.1 滑模矢量设计原理 | 第126-127页 |
6.3.2.2 无目标图像速度的滑模矢量形式 | 第127-129页 |
6.3.3 参数估计律设计分析 | 第129-130页 |
6.4 系统稳定性分析 | 第130-135页 |
6.4.1 稳定性证明相关原理 | 第130-132页 |
6.4.2 系统闭环误差方程推导 | 第132-133页 |
6.4.3 系统候选Lyapunov函数 | 第133-134页 |
6.4.4 系统稳定性证明 | 第134-135页 |
6.5 仿真结果与分析 | 第135-140页 |
6.6 本章小结 | 第140-141页 |
第七章 总结与展望 | 第141-145页 |
7.1 全文总结 | 第141-143页 |
7.2 后续研究工作展望 | 第143-145页 |
致谢 | 第145-146页 |
参考文献 | 第146-162页 |
攻读博士学位期间取得的成果 | 第162-163页 |