首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

沉浸式虚拟现实中主动视觉定位技术

摘要第3-4页
abstract第4-5页
注释表第12-13页
第1章 绪论第13-23页
    1.1 研究背景及意义第13-15页
    1.2 国内外研究现状第15-20页
        1.2.1 虚拟现实位置追踪技术研究第15-17页
        1.2.2 视觉定位技术在虚拟现实中的应用研究第17-20页
    1.3 本文研究内容第20-21页
    1.4 论文组织结构第21-23页
第2章 虚拟现实视觉定位技术基础第23-32页
    2.1 基于ARToolkit的主动视觉定位技术第23-26页
        2.1.1 ARToolkit跟踪原理第23-25页
        2.1.2 基于标识的主动视觉定位技术第25-26页
    2.2 容错技术第26-28页
        2.2.1 惯性定位技术第27页
        2.2.2 卡尔曼滤波器原理第27-28页
    2.3 图像处理技术第28-31页
        2.3.1 固定阈值分割方法第29页
        2.3.2 基于OTSU的全局阈值分割方法第29-30页
        2.3.3 自适应局部阈值分割方法第30页
        2.3.4 上述几种分割方法的实验结果对比第30-31页
    2.4 本章小结第31-32页
第3章 主动视觉定位的容错方法设计第32-41页
    3.1 问题提出和研究思路第32-33页
    3.2 基于惯性定位的容错算法第33-37页
        3.2.1 加速度预处理第33-35页
        3.2.2 基于Kalman滤波的位置估计第35-36页
        3.2.3 算法流程总结第36-37页
    3.3 实验计算与结果第37-40页
        3.3.1 准确性验证第37-38页
        3.3.2 鲁棒性对比第38-40页
        3.3.3 单帧耗时对比第40页
    3.4 本章小结第40-41页
第4章 光照变化下的视觉跟踪算法研究第41-54页
    4.1 问题提出和研究思路第41-42页
    4.2 光照变化下的视觉跟踪算法第42-50页
        4.2.1 光照环境检测方法第43-45页
        4.2.2 基于均值的自适应阈值分割算法第45-48页
        4.2.3 光照变化下的自适应视觉跟踪算法第48-49页
        4.2.4 算法流程总结第49-50页
    4.3 实验结果第50-53页
        4.3.1 实验方案和参数选择第50-51页
        4.3.2 验证性实验第51-52页
        4.3.3 识别率及算法耗时对比第52-53页
    4.4 本章小结第53-54页
第5章 基于主动视觉定位的沉浸式虚拟现实验证系统第54-63页
    5.1 系统需求分析第54-55页
    5.2 系统设计第55-59页
        5.2.1 软硬件环境要求第55-56页
        5.2.2 架构设计第56-57页
        5.2.3 功能模块设计第57页
        5.2.4 算法流程设计第57-59页
    5.3 系统实现第59-61页
    5.4 系统展示第61-62页
    5.5 本章小结第62-63页
第6章 工作总结和展望第63-65页
    6.1 工作总结第63-64页
    6.2 工作展望第64-65页
参考文献第65-69页
致谢第69-70页
攻读硕士学位期间从事的科研工作及取得的成果第70页

论文共70页,点击 下载论文
上一篇:基于属性的可搜索加密方案的应用研究
下一篇:基于便携式智能终端的空中鼠标技术研究