致谢 | 第5-6页 |
摘要 | 第6-7页 |
ABSTRACT | 第7-8页 |
目录 | 第9-11页 |
1 引言 | 第11-23页 |
1.1 课题研究背景及意义 | 第11-12页 |
1.2 国内外研究现状 | 第12页 |
1.3 课题相关学科介绍 | 第12-20页 |
1.3.1 虚拟现实概述 | 第13-15页 |
1.3.2 人机交互技术概述 | 第15-17页 |
1.3.3 计算机视觉概述 | 第17-18页 |
1.3.4 手势识别 | 第18-20页 |
1.4 KINECT介绍 | 第20-21页 |
1.5 课题研究内容 | 第21-22页 |
1.6 本文结构安排 | 第22-23页 |
2 手势分割 | 第23-32页 |
2.1 深度图像的手势分割 | 第23-28页 |
2.1.1 Kinect深度图像 | 第23-24页 |
2.1.2 Kinect深度图像成像原理 | 第24-26页 |
2.1.3 深度图像的手势分割 | 第26页 |
2.1.4 灰度直方图 | 第26-27页 |
2.1.5 自适应双阈值分割 | 第27-28页 |
2.2 中值滤波 | 第28-30页 |
2.3 不同光照条件下的手势分割 | 第30-31页 |
2.4 本章小结 | 第31-32页 |
3 手势特征提取 | 第32-42页 |
3.1 掌心提取 | 第32-33页 |
3.1.1 图像腐蚀 | 第32-33页 |
3.2 以画圆的方法提取手势特征 | 第33-35页 |
3.3 寻找指尖位置 | 第35-39页 |
3.3.1 八邻域边界跟踪算法 | 第35-36页 |
3.3.2 Graham Scan算法求解凸包 | 第36-37页 |
3.3.3 利用聚类和K-curvature算法提取指尖 | 第37-39页 |
3.4 识别结果 | 第39-41页 |
3.5 本章小结 | 第41-42页 |
4 KINECT骨骼节点的应用 | 第42-49页 |
4.1 KINECT骨骼跟踪技术 | 第42-45页 |
4.1.1 获取训练样本 | 第43页 |
4.1.2 深度图像特征值 | 第43-44页 |
4.1.3 训练随机决策森林 | 第44-45页 |
4.2 骨骼节点坐标与鼠标坐标的转换 | 第45-48页 |
4.2.1 简单的坐标转换 | 第45-46页 |
4.2.2 以人体为中心的坐标转换 | 第46-48页 |
4.3 本章小结 | 第48-49页 |
5 基于行为交互的虚拟装配及展示系统的实现 | 第49-55页 |
5.1 系统开发环境及架构 | 第49-50页 |
5.1.1 系统开发环境 | 第49页 |
5.1.2 系统框架 | 第49-50页 |
5.2 交互动作定义 | 第50-51页 |
5.3 虚拟场景介绍 | 第51-54页 |
5.4 本章小结 | 第54-55页 |
6 总结与展望 | 第55-57页 |
6.1 总结 | 第55-56页 |
6.2 展望 | 第56-57页 |
参考文献 | 第57-60页 |
作者简历及攻读硕士学位期间取得的研究成果 | 第60-62页 |
学位论文数据集 | 第62页 |