基于Kinect的人体姿态识别和机器人控制
| 摘要 | 第3-5页 |
| Abstract | 第5-6页 |
| 第1章 绪论 | 第9-14页 |
| 1.1 引言 | 第9页 |
| 1.2 研究背景和意义 | 第9-10页 |
| 1.3 国内外的发展趋势 | 第10-12页 |
| 1.4 本课题的主要内容 | 第12-13页 |
| 1.5 本章小结 | 第13-14页 |
| 第2章 体感识别技术原理 | 第14-25页 |
| 2.1 课题所用体感识别设备的选取 | 第14-15页 |
| 2.2 体感技术原理 | 第15-18页 |
| 2.3 体感设备—Kinect | 第18-24页 |
| 2.3.1 Kinect设备结构 | 第18-21页 |
| 2.3.2 Kinect设备原理 | 第21页 |
| 2.3.3 Kinect设备开发环境 | 第21-24页 |
| 2.4 本章小结 | 第24-25页 |
| 第3章 基于Kinect的人体姿态识别 | 第25-32页 |
| 3.1 人体骨骼节点的提取 | 第25-29页 |
| 3.1.1 骨骼数据流 | 第26-27页 |
| 3.1.2 骨骼框架提取 | 第27页 |
| 3.1.3 骨骼对象的追踪 | 第27-28页 |
| 3.1.4 获取关节点信息 | 第28-29页 |
| 3.2 人体姿态识别的实现 | 第29-31页 |
| 3.3 本章小结 | 第31-32页 |
| 第4章 3D点云数据的处理 | 第32-38页 |
| 4.1 3D点云数据的获取 | 第32-34页 |
| 4.2 点云处理 | 第34-37页 |
| 4.2.1 点云过滤 | 第34-36页 |
| 4.2.2 点云校准 | 第36-37页 |
| 4.3 本章小结 | 第37-38页 |
| 第5章 基于体感控制机器人的仿真实现 | 第38-48页 |
| 5.1 Processing语言 | 第38-40页 |
| 5.2 机器人模型仿真 | 第40-44页 |
| 5.2.1 机器人模型建模 | 第41-42页 |
| 5.2.2 角度测量转化算法 | 第42-44页 |
| 5.3 体感控制机器人运动实现 | 第44-47页 |
| 5.3.1 点云数据处理 | 第44-45页 |
| 5.3.2 体感控制机器人运动实现 | 第45-47页 |
| 5.4 本章小结 | 第47-48页 |
| 第6章 总结与展望 | 第48-50页 |
| 6.1 总结 | 第48-49页 |
| 6.2 展望 | 第49-50页 |
| 参考文献 | 第50-53页 |
| 致谢 | 第53页 |