基于Kinect的手心定位方法的研究和应用
| 摘要 | 第4-5页 |
| Abstract | 第5页 |
| 第1章 绪论 | 第8-15页 |
| 1.1 课题研究背景及意义 | 第8-10页 |
| 1.2 国内外研究现状及分析 | 第10-14页 |
| 1.2.1 国内外研究现状 | 第10-13页 |
| 1.2.2 研究成果分析 | 第13-14页 |
| 1.3 本文主要研究内容 | 第14-15页 |
| 第2章 手心定位的预处理 | 第15-24页 |
| 2.1 深度灰度显示的改进 | 第15-18页 |
| 2.2 人体提取、对齐和分割 | 第18-23页 |
| 2.2.1 Green Screen 人体提取 | 第19页 |
| 2.2.2 人体图像对齐 | 第19-20页 |
| 2.2.3 手部分割 | 第20-23页 |
| 2.3 本章小结 | 第23-24页 |
| 第3章 手部辨识与手心定位 | 第24-37页 |
| 3.1 手部轮廓辨识和指尖定位 | 第24-29页 |
| 3.1.1 灰度化和二值化 | 第25-26页 |
| 3.1.2 轮廓的寻找与绘制 | 第26-27页 |
| 3.1.3 三通道融合与凸包的绘制 | 第27-28页 |
| 3.1.4 凸缺陷计算和指尖定位 | 第28-29页 |
| 3.2 Kinect SDK 手心定位 | 第29-33页 |
| 3.3 欧氏距离变换手心定位 | 第33-36页 |
| 3.4 本章小结 | 第36-37页 |
| 第4章 欧氏变换手心定位的评估 | 第37-52页 |
| 4.1 稳定性评估—实验场景及分析 | 第37-42页 |
| 4.1.1 场景 1:手部轮廓形态不良 | 第37-38页 |
| 4.1.2 场景 2:手部异形 | 第38-40页 |
| 4.1.3 场景 3:手部形态缺失 | 第40页 |
| 4.1.4 场景 4:远距离识别 | 第40-42页 |
| 4.2 准确性评估—实验数据,场景及分析 | 第42-51页 |
| 4.2.1 实验数据和评价指标 | 第42-44页 |
| 4.2.2 场景 1:左右手近距离 | 第44-48页 |
| 4.2.3 场景 2:右手远距离 | 第48-49页 |
| 4.2.4 场景 3:右手与垂直平面成不同角度 | 第49-51页 |
| 4.3 本章小结 | 第51-52页 |
| 第5章 算法拓展和应用 | 第52-58页 |
| 5.1 算法拓展—肩中定位 | 第52-54页 |
| 5.2 应用举例—人体角度仪 | 第54-57页 |
| 5.2.1 程序功能和界面介绍 | 第55页 |
| 5.2.2 设计流程和运行效果 | 第55-57页 |
| 5.3 本章小结 | 第57-58页 |
| 结论 | 第58-59页 |
| 参考文献 | 第59-65页 |
| 致谢 | 第65页 |