体感交互技术在大型沉浸式系统中的应用与研究
摘要 | 第4-5页 |
ABSTRACT | 第5-6页 |
目录 | 第7-9页 |
1 绪论 | 第9-22页 |
1.1 体感交互技术 | 第9-14页 |
1.1.1 体感交互技术的概述 | 第9页 |
1.1.2 体感交互技术的分类及研究现状 | 第9-14页 |
1.1.2.1 触觉技术 | 第10-13页 |
1.1.2.2 知觉技术 | 第13-14页 |
1.2 大型沉浸式系统 | 第14-20页 |
1.2.1 大型沉浸式系统的概述 | 第14-15页 |
1.2.2 沉浸式系统的分类与研究现状 | 第15-20页 |
1.2.2.1 显示墙环境 | 第16页 |
1.2.2.2 环绕显示环境 | 第16-17页 |
1.2.2.3 头戴式显示环境 | 第17-18页 |
1.2.2.4 移动终端增强显示环境 | 第18-19页 |
1.2.2.5 混合显示环境 | 第19-20页 |
1.3 结合体感交互技术与大型沉浸式系统 | 第20-21页 |
1.3.1 相关研究现状 | 第20页 |
1.3.2 研究内容和解决问题 | 第20页 |
1.3.3 研究意义 | 第20-21页 |
1.4 论文结构及章节安排 | 第21-22页 |
2 体感交互技术的算法原理及技术路线 | 第22-37页 |
2.1 Kinect体感交互设备 | 第22-24页 |
2.1.1 Kinect的应用现状 | 第22页 |
2.1.2 Kinect的运作原理 | 第22-24页 |
2.2 人体动作捕捉算法 | 第24-28页 |
2.2.1 获取深度信息 | 第24-25页 |
2.2.2 深度信息校正 | 第25页 |
2.2.3 深度信息处理 | 第25-27页 |
2.2.4 动作识别算法 | 第27-28页 |
2.3 体感交互开发技术路线 | 第28-32页 |
2.3.1 开发框架 | 第28-30页 |
2.3.2 核心流程 | 第30-32页 |
2.4 体感交互技术与Unity3D结合 | 第32-36页 |
2.4.1 Unity3D开发平台 | 第32页 |
2.4.2 测试系统核心脚本 | 第32-35页 |
2.4.3 测试系统效果 | 第35-36页 |
2.5 小结 | 第36-37页 |
3 体感交互技术在大型触摸屏环境中的用户研究 | 第37-45页 |
3.1 大型触摸屏环境 | 第37-38页 |
3.1.1 大型触摸屏环境的局限 | 第37-38页 |
3.1.2 用户与屏幕间距离关系 | 第38页 |
3.2 基于距离的两种交互模式 | 第38-41页 |
3.2.1 远距离模式 | 第40页 |
3.2.2 近距离模式 | 第40-41页 |
3.3 用户测试与测试结果 | 第41-44页 |
3.3.1 测试设计与实现 | 第41-42页 |
3.3.2 测试结果 | 第42-43页 |
3.3.3 结果分析与讨论 | 第43-44页 |
3.4 小结 | 第44-45页 |
4 体感交互技术在360度环形沉浸式系统中的应用 | 第45-57页 |
4.1 360度环形沉浸式系统 | 第45-47页 |
4.2 系统设计 | 第47-49页 |
4.2.1 核心功能设计 | 第47页 |
4.2.2 开发框架设计 | 第47-49页 |
4.3 姿势识别功能实现 | 第49-53页 |
4.3.1 基于节点三角形识别姿势 | 第49-50页 |
4.3.2 姿势识别的核心流程 | 第50-53页 |
4.4 系统实现与测试结果 | 第53-56页 |
4.5 小结 | 第56-57页 |
5 总结与展望 | 第57-59页 |
5.1 全文工作总结 | 第57-58页 |
5.2 进一步展望 | 第58-59页 |
参考文献 | 第59-64页 |
个人简介 | 第64-65页 |
导师简介 | 第65-66页 |
致谢 | 第66页 |