面向人机交互的机器人信息融合系统的研究与实现
摘要 | 第5-6页 |
abstract | 第6-7页 |
第一章 绪论 | 第10-17页 |
1.1 课题研究背景以及意义 | 第10页 |
1.2 移动机器人的概述 | 第10-13页 |
1.2.1 移动机器人国外发展现状 | 第11-12页 |
1.2.2 移动机器人国内发展现状 | 第12-13页 |
1.3 信息融合技术的发展现状 | 第13-15页 |
1.4 信息融合技术在机器人中的应用 | 第15页 |
1.5 课题来源以及论文的内容安排 | 第15-17页 |
第二章 机器人信息融合系统的设计 | 第17-35页 |
2.1 相关理论介绍 | 第17-23页 |
2.1.1 融合算法理论 | 第17-19页 |
2.1.2 视觉跟踪算法理论 | 第19-23页 |
2.2 信息融合系统设计 | 第23-25页 |
2.2.1 信息融合系统总体设计 | 第23页 |
2.2.2 信息融合的层次 | 第23-25页 |
2.3 感知系统设计 | 第25-31页 |
2.3.1 视觉传感器及原理 | 第25-28页 |
2.3.2 姿态传感器及原理 | 第28-31页 |
2.4 机器人平台介绍 | 第31-34页 |
2.5 本章小结 | 第34-35页 |
第三章 机器人对人体感知研究 | 第35-52页 |
3.1 人体感知概述 | 第35-37页 |
3.1.1 静态背景的运动目标检测算法 | 第35-36页 |
3.1.2 动态背景运动目标检测 | 第36-37页 |
3.2 机器人运动模型参数的估计 | 第37-47页 |
3.2.1 相机运动建模 | 第38-39页 |
3.2.2 特征提取 | 第39-45页 |
3.2.3 特征匹配 | 第45页 |
3.2.4 机器人运动估计 | 第45-47页 |
3.2.5 机器人运动模型优化 | 第47页 |
3.3 运动补偿 | 第47-48页 |
3.4 骨架验证人体目标 | 第48-51页 |
3.5 实验结果分析 | 第51页 |
3.6 本章小结 | 第51-52页 |
第四章 基于信息融合的机器人视觉跟踪 | 第52-73页 |
4.1 人体目标跟踪方案 | 第52-55页 |
4.1.1 人脸跟踪方案 | 第52-54页 |
4.1.2 骨架跟踪方案 | 第54页 |
4.1.3 融合颜色和深度的人体目标跟踪方案 | 第54-55页 |
4.2 目标跟踪建模 | 第55-63页 |
4.2.1 颜色空间转换 | 第55-58页 |
4.2.2 目标人体特征提取 | 第58-59页 |
4.2.3 反向投影图 | 第59-60页 |
4.2.4 颜色直方图的匹配 | 第60-63页 |
4.3 跟踪算法设计 | 第63-65页 |
4.4 颜色和深度信息融合设计 | 第65-68页 |
4.5 实验结果和分析 | 第68-71页 |
4.6 本章小结 | 第71-73页 |
第五章 基于信息融合的机器人运动跟随 | 第73-84页 |
5.1 机器人跟随方案设计 | 第73-74页 |
5.2 基于条件的机器人位姿融合 | 第74-77页 |
5.2.1 位姿融合方案设计 | 第74-75页 |
5.2.2 位姿融合算法设计 | 第75-77页 |
5.3 面向人机交互的信息融合系统设计 | 第77-80页 |
5.4 实验结果和分析 | 第80-83页 |
5.5 本章小结 | 第83-84页 |
第六章 总结与展望 | 第84-86页 |
6.1 全文总结 | 第84页 |
6.2 工作展望 | 第84-86页 |
致谢 | 第86-87页 |
参考文献 | 第87-92页 |
硕士期间研究成果 | 第92-93页 |