基于人体姿态识别的机器人控制技术研究
摘要 | 第4-5页 |
Abstract | 第5页 |
第1章 绪论 | 第8-14页 |
1.1 研究背景及意义 | 第8-9页 |
1.2 国内外研究现状 | 第9-12页 |
1.2.1 基于视觉的人体姿态识别研究 | 第9-11页 |
1.2.2 基于非视觉的人体姿态识别研究 | 第11-12页 |
1.3 基于体感设备的机器人技术 | 第12-13页 |
1.4 本文组织结构 | 第13-14页 |
第2章 Kinect及其数据的获取 | 第14-21页 |
2.1 Kinect概述 | 第14-16页 |
2.1.1 Kinect硬件系统 | 第14-15页 |
2.1.2 Kinect软件系统 | 第15-16页 |
2.1.3 Kinect技术应用 | 第16页 |
2.2 深度信息的获取 | 第16-19页 |
2.2.1 深度信息获取技术 | 第16-17页 |
2.2.2 Kinect深度信息的获取原理 | 第17-19页 |
2.3 深度信息的变换 | 第19-20页 |
2.3.1 深度信息到空间三维坐标的转化 | 第19页 |
2.3.2 深度图像到RGB图像的配准 | 第19-20页 |
2.4 本章小结 | 第20-21页 |
第3章 基于骨架特征的人体检测 | 第21-33页 |
3.1 深度图像预处理 | 第21-24页 |
3.1.1 泊松方程噪声滤除 | 第21页 |
3.1.2 中值滤波 | 第21-23页 |
3.1.3 人与背景的分割 | 第23-24页 |
3.2 骨架的提取 | 第24-32页 |
3.2.1 骨架的模型 | 第25-26页 |
3.2.2 经典骨架提取算法 | 第26-29页 |
3.2.3 骨架提取实验 | 第29-32页 |
3.3 本章小结 | 第32-33页 |
第4章 基于骨架的人体姿态识别 | 第33-42页 |
4.1 系统框架 | 第33-34页 |
4.2 特征提取 | 第34-39页 |
4.2.1 特征表示 | 第34-36页 |
4.2.2 特征提取方式 | 第36-39页 |
4.3 模板匹配 | 第39-41页 |
4.4 本章小结 | 第41-42页 |
第5章 人体姿态识别实验与分析 | 第42-53页 |
5.1 样本库的建立 | 第42-44页 |
5.2 人体姿态识别实验 | 第44-49页 |
5.2.1 实验平台硬件设施 | 第44-45页 |
5.2.2 实验平台软件设计 | 第45-46页 |
5.2.3 实验结果 | 第46-49页 |
5.3 机器人运动控制 | 第49-52页 |
5.4 本章小结 | 第52-53页 |
第6章 总结与展望 | 第53-55页 |
6.1 论文总结 | 第53页 |
6.2 进一步研究工作 | 第53-55页 |
致谢 | 第55-56页 |
参考文献 | 第56-60页 |
附录 1 研究生期间发表论文、申请专利及获奖情况 | 第60-61页 |
附录 2 攻读硕士学位期间参加的科研项目 | 第61-62页 |
详细摘要 | 第62-66页 |