沉浸式虚拟现实中主动视觉定位技术
摘要 | 第3-4页 |
abstract | 第4-5页 |
注释表 | 第12-13页 |
第1章 绪论 | 第13-23页 |
1.1 研究背景及意义 | 第13-15页 |
1.2 国内外研究现状 | 第15-20页 |
1.2.1 虚拟现实位置追踪技术研究 | 第15-17页 |
1.2.2 视觉定位技术在虚拟现实中的应用研究 | 第17-20页 |
1.3 本文研究内容 | 第20-21页 |
1.4 论文组织结构 | 第21-23页 |
第2章 虚拟现实视觉定位技术基础 | 第23-32页 |
2.1 基于ARToolkit的主动视觉定位技术 | 第23-26页 |
2.1.1 ARToolkit跟踪原理 | 第23-25页 |
2.1.2 基于标识的主动视觉定位技术 | 第25-26页 |
2.2 容错技术 | 第26-28页 |
2.2.1 惯性定位技术 | 第27页 |
2.2.2 卡尔曼滤波器原理 | 第27-28页 |
2.3 图像处理技术 | 第28-31页 |
2.3.1 固定阈值分割方法 | 第29页 |
2.3.2 基于OTSU的全局阈值分割方法 | 第29-30页 |
2.3.3 自适应局部阈值分割方法 | 第30页 |
2.3.4 上述几种分割方法的实验结果对比 | 第30-31页 |
2.4 本章小结 | 第31-32页 |
第3章 主动视觉定位的容错方法设计 | 第32-41页 |
3.1 问题提出和研究思路 | 第32-33页 |
3.2 基于惯性定位的容错算法 | 第33-37页 |
3.2.1 加速度预处理 | 第33-35页 |
3.2.2 基于Kalman滤波的位置估计 | 第35-36页 |
3.2.3 算法流程总结 | 第36-37页 |
3.3 实验计算与结果 | 第37-40页 |
3.3.1 准确性验证 | 第37-38页 |
3.3.2 鲁棒性对比 | 第38-40页 |
3.3.3 单帧耗时对比 | 第40页 |
3.4 本章小结 | 第40-41页 |
第4章 光照变化下的视觉跟踪算法研究 | 第41-54页 |
4.1 问题提出和研究思路 | 第41-42页 |
4.2 光照变化下的视觉跟踪算法 | 第42-50页 |
4.2.1 光照环境检测方法 | 第43-45页 |
4.2.2 基于均值的自适应阈值分割算法 | 第45-48页 |
4.2.3 光照变化下的自适应视觉跟踪算法 | 第48-49页 |
4.2.4 算法流程总结 | 第49-50页 |
4.3 实验结果 | 第50-53页 |
4.3.1 实验方案和参数选择 | 第50-51页 |
4.3.2 验证性实验 | 第51-52页 |
4.3.3 识别率及算法耗时对比 | 第52-53页 |
4.4 本章小结 | 第53-54页 |
第5章 基于主动视觉定位的沉浸式虚拟现实验证系统 | 第54-63页 |
5.1 系统需求分析 | 第54-55页 |
5.2 系统设计 | 第55-59页 |
5.2.1 软硬件环境要求 | 第55-56页 |
5.2.2 架构设计 | 第56-57页 |
5.2.3 功能模块设计 | 第57页 |
5.2.4 算法流程设计 | 第57-59页 |
5.3 系统实现 | 第59-61页 |
5.4 系统展示 | 第61-62页 |
5.5 本章小结 | 第62-63页 |
第6章 工作总结和展望 | 第63-65页 |
6.1 工作总结 | 第63-64页 |
6.2 工作展望 | 第64-65页 |
参考文献 | 第65-69页 |
致谢 | 第69-70页 |
攻读硕士学位期间从事的科研工作及取得的成果 | 第70页 |