摘要 | 第5-6页 |
abstract | 第6-7页 |
第1章 绪论 | 第10-18页 |
1.1 课题研究背景及意义 | 第10-11页 |
1.2 相关技术研究现状 | 第11-15页 |
1.2.1 机器人视觉发展研究现状 | 第11-13页 |
1.2.2 机器人视觉伺服技术研究现状 | 第13-15页 |
1.3 论文的主要研究内容 | 第15-18页 |
第2章 视觉伺服系统总体方案设计与建模分析 | 第18-37页 |
2.1 视觉伺服系统设计方案 | 第18-23页 |
2.1.1 视觉伺服系统组成 | 第18-20页 |
2.1.2 视觉伺服系统硬件组成 | 第20-21页 |
2.1.3 视觉伺服控制实验方案设计 | 第21-23页 |
2.2 手眼系统建模与求解 | 第23-29页 |
2.2.1 空间描述 | 第23页 |
2.2.2 空间变换 | 第23-24页 |
2.2.3 建立手眼关系方程 | 第24-26页 |
2.2.4 分步法解手眼方程 | 第26-28页 |
2.2.5 非线性最优法的求解 | 第28-29页 |
2.3 六自由度机械臂运动学建模 | 第29-36页 |
2.3.1 六自由度机械臂正运动学模型建立 | 第29-31页 |
2.3.2 六自由度机械臂正运动学的仿真验证 | 第31-32页 |
2.3.3 六自由度机械臂逆运动学求解 | 第32-35页 |
2.3.4 六自由度机械臂逆运动学验证 | 第35-36页 |
2.4 本章小结 | 第36-37页 |
第3章 目标物体特征提取与识别算法研究 | 第37-53页 |
3.1 图像特征分析 | 第37-38页 |
3.2 SIFT特征提取算法研究与实现 | 第38-45页 |
3.2.1 尺度空间极值检测 | 第39-41页 |
3.2.2 关键点的选定方法 | 第41-43页 |
3.2.3 确定关键点方向 | 第43-44页 |
3.2.4 生成SITF特征向量 | 第44页 |
3.2.5 SIFT算法实现目标特征提取 | 第44-45页 |
3.3 目标物体的识别算法实现 | 第45-48页 |
3.3.1 SIFT特征匹配 | 第45-46页 |
3.3.2 RANSAC去除误匹配 | 第46-47页 |
3.3.3 匹配识别目标物体 | 第47-48页 |
3.4 目标物体在图像区域中的位置计算 | 第48-51页 |
3.4.1 单应矩阵 | 第49-50页 |
3.4.2 根据单应矩阵确定目标所在区域 | 第50-51页 |
3.5 本章小结 | 第51-53页 |
第4章 目标物体位置与姿态测量方法 | 第53-65页 |
4.1 目标物体轮廓提取算法实现 | 第53-57页 |
4.1.1 Grab Cut图像分割算法 | 第53-55页 |
4.1.2 获取待分割的目标图像 | 第55-56页 |
4.1.3 Grab Cut算法进行目标物体轮廓提取 | 第56-57页 |
4.2 目标对象位置测量方法 | 第57-61页 |
4.2.1 轮廓中心点坐标计算 | 第57-58页 |
4.2.2 轮廓中心点匹配 | 第58-61页 |
4.3 目标姿态测量方法 | 第61-64页 |
4.3.1 确定场景图像中目标对象的母线 | 第62-63页 |
4.3.2 空间母线求取及目标对象姿态计算 | 第63-64页 |
4.4 本章小结 | 第64-65页 |
第5章 视觉伺服系统实验与结果分析 | 第65-71页 |
5.1 手眼系统标定实验 | 第65-67页 |
5.2 定位实验与误差分析 | 第67-69页 |
5.2.1 不同目标的定位实验 | 第67-68页 |
5.2.2 数据与误差分析 | 第68-69页 |
5.3 实现对目标物体的抓取 | 第69-70页 |
5.4 本章小结 | 第70-71页 |
结论 | 第71-73页 |
参考文献 | 第73-78页 |
攻读硕士学位期间发表的论文和取得的科研成果 | 第78-80页 |
致谢 | 第80页 |