首页--工业技术论文--自动化技术、计算机技术论文--自动化技术及设备论文--自动化元件、部件论文--发送器(变换器)、传感器论文

Kinect和Leap Motion数据融合技术的研究与应用

摘要第4-5页
ABSTRACT第5页
第一章 绪论第8-17页
    1.1 研究的背景及意义第8-9页
    1.2 相关设备的介绍第9-13页
        1.2.1 Kinect的介绍第9-10页
        1.2.2 Leap Motion的介绍第10-11页
        1.2.3 OculusRift的介绍第11-13页
    1.3 国内外研究现状与趋势第13-15页
        1.3.1 基于Kinect研究现状与趋势第13-14页
        1.3.2 基于Leap Motion研究现状与趋势第14页
        1.3.3 Unity发展及应用现状第14-15页
    1.4 本文的工作及其结构安排第15-17页
第二章 多传感器数据融合技术概述第17-21页
    2.1 多传感器数据融合的基本原理第17页
    2.2 多传感器数据融合的过程第17-18页
    2.3 多传感器的融合层次第18-19页
        2.3.1 数据级融合第18页
        2.3.2 特征级融合第18页
        2.3.3 决策级融合第18-19页
    2.4 多传感器数据融合的体系结构第19-20页
        2.4.1 集中式结构第19页
        2.4.2 分布式结构第19-20页
        2.4.3 混合式结构第20页
    2.5 本章小结第20-21页
第三章 基于深度图像的动态指尖获取第21-33页
    3.1 动态手区域提取第21-25页
        3.1.1 基于OpenNI的手势检测第21-23页
        3.1.2 手势检测及获取手心位置第23-24页
        3.1.3 基于深度阈值的手势分割第24-25页
    3.2 动态指尖特征提取第25-30页
        3.2.1 深度图像滤波器第25-27页
        3.2.2 手部边缘检测第27-28页
        3.2.3 指尖检测第28-30页
    3.3 指尖识别实验及分析第30-32页
    3.4 本章小结第32-33页
第四章 Kinect和Leap Motion的联合标定第33-45页
    4.1 Leap Motion手部数据获取第33-34页
    4.2 基于反光球的一维标定算法第34-37页
        4.2.1 算法实现第35-36页
        4.2.2 标定参数求解第36-37页
        4.2.3 联合标定第37页
    4.3 对应点集配准(CPSR)算法第37-40页
    4.4 联合标定实验与分析第40-44页
        4.4.1 初步标定实验第40-42页
        4.4.2 指尖数据配准实验第42页
        4.4.3 实验结果与分析第42-44页
    4.5 本章小结第44-45页
第五章 基于手势识别的人机交互应用第45-52页
    5.1 Unity3D虚拟引擎介绍第45-46页
    5.2 Kinect在Unity3D中的集成第46-47页
    5.3 Leap Motion在Unity3D中的集成第47-48页
    5.4 Unity3D结合Oculus的设置第48页
    5.5 多传感器数据融合的人机交互的实现第48-51页
        5.5.1 Leap Motion和Kinect的数据融合第48-49页
        5.5.2 人机交互应用测试第49-51页
    5.6 本章小结第51-52页
第六章 总结与展望第52-54页
    6.1 研究总结第52-53页
    6.2 研究展望第53-54页
致谢第54-55页
参考文献第55-56页

论文共56页,点击 下载论文
上一篇:CMOS图像传感器的系统结构分析及版图设计
下一篇:基于深度学习的移动机器人避障研究