基于视觉引导的机器人共享协作系统研究
摘要 | 第4-6页 |
Abstract | 第6-8页 |
第1章 绪论 | 第12-24页 |
1.1 课题来源 | 第12页 |
1.2 选题背景与意义 | 第12-14页 |
1.3 人机协作及视觉伺服研究概况 | 第14-22页 |
1.3.1 人机协作系统研究国内外研究现状 | 第14-18页 |
1.3.2 视觉伺服系统国内外研究现状 | 第18-22页 |
1.4 论文的研究内容与章节安排 | 第22-24页 |
第2章 人机协作系统构成及工作原理 | 第24-36页 |
2.1 视觉引导子系统 | 第24-27页 |
2.1.1 视觉传感器介绍 | 第25-26页 |
2.1.2 视觉传感器布置 | 第26-27页 |
2.2 视觉伺服子系统 | 第27-31页 |
2.2.1 系统构成 | 第27-28页 |
2.2.2 末端视觉信息采集 | 第28-31页 |
2.3 机器人子系统 | 第31-33页 |
2.4 视觉引导的人机协作系统工作原理 | 第33-35页 |
2.5 本章小结 | 第35-36页 |
第3章 视觉引导数据融合与处理 | 第36-48页 |
3.1 视觉引导控制信息获取 | 第36-37页 |
3.2 视觉引导场景中多Kinect相机信息融合 | 第37-40页 |
3.3 点云信息处理 | 第40-42页 |
3.4 机械臂工作空间识别与标定 | 第42-47页 |
3.4.1 基于工作平台识别的空间关系确定方法 | 第42-44页 |
3.4.2 基于点云模板匹配的空间关系确定方法 | 第44-47页 |
3.5 本章小结 | 第47-48页 |
第4章 机械臂视觉引导控制 | 第48-60页 |
4.1 手部位置控制信息获取与处理 | 第48-53页 |
4.1.1 位置信息权重融合 | 第48-50页 |
4.1.2 路径跟踪滤波处理 | 第50-53页 |
4.2 手部姿态控制信息获取与处理 | 第53-56页 |
4.2.1 手部点云分割 | 第53-54页 |
4.2.2 手部点云噪声消除 | 第54-56页 |
4.3 机械臂视觉引导控制策略 | 第56-59页 |
4.4 本章小结 | 第59-60页 |
第5章 机械臂视觉伺服控制 | 第60-76页 |
5.1 视觉伺服系统控制原理 | 第60-65页 |
5.1.1 视觉伺服原理 | 第60-63页 |
5.1.2 提升视觉伺服控制效率 | 第63-64页 |
5.1.3 运动伺服控制系统建模 | 第64-65页 |
5.2 视觉伺服控制系统构建 | 第65-70页 |
5.2.1 末端摄像头标定 | 第65-69页 |
5.2.2 视觉伺服图像特征识别 | 第69-70页 |
5.3 视觉引导与视觉伺服任务切换策略 | 第70-75页 |
5.4 本章小结 | 第75-76页 |
第6章 人机协作系统实验及仿真分析 | 第76-92页 |
6.1 视觉引导实验及仿真 | 第76-81页 |
6.1.1 视觉引导实验 | 第76-80页 |
6.1.2 视觉引导仿真 | 第80-81页 |
6.2 视觉伺服实验及仿真 | 第81-89页 |
6.2.1 视觉伺服实验 | 第81-83页 |
6.2.2 视觉伺服仿真 | 第83-87页 |
6.2.3 仿真分析 | 第87-89页 |
6.3 实验分析及软件界面 | 第89-90页 |
6.4 本章小结 | 第90-92页 |
第7章 研究工作总结与展望 | 第92-94页 |
7.1 工作总结 | 第92-93页 |
7.2 研究展望 | 第93-94页 |
参考文献 | 第94-104页 |
作者简介及科研成果 | 第104-105页 |
致谢 | 第105页 |