首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于Kinect平台融合视频信息和骨骼点数据的人体动作识别

摘要第7-9页
abstract第9-10页
第一章 绪论第11-18页
    1.1 研究背景与意义第11-12页
    1.2 研究现状第12-15页
        1.2.1 动作特征的提取第12-14页
        1.2.2 动作识别算法第14-15页
    1.3 研究内容第15-16页
    1.4 论文组织结构第16-18页
第二章 数据采集第18-27页
    2.1 Kinect平台简介第18-21页
    2.2 基于Kinect平台的数据采集第21-26页
        2.2.1 Kinect设备工作环境简介第21-22页
        2.2.2 单个Kinect设备的数据采集第22-24页
        2.2.3 两个Kinect设备同步数据采集系统的实现第24-26页
    2.3 本章小结第26-27页
第三章 Kinect平台下动作特征表述的研究第27-35页
    3.1 基于骨架数据的特征表述第27-29页
    3.2 彩色图像SURF特征描述子的研究第29-34页
    3.3 本章小结第34-35页
第四章 基于骨骼点数据的人体动作识别第35-66页
    4.1 基于主成分分析的人体动作识别第35-44页
        4.1.1 主成分分析方法的总体思路分析第35-36页
        4.1.2 主成分分析方法的具体实现第36-40页
        4.1.3 实验结果第40-43页
        4.1.4 小结第43-44页
    4.2 基于混合高斯模型的相似性动作识别第44-57页
        4.2.1 词袋模型应用及原理简介第44-46页
        4.2.2 姿态字典的生成第46-48页
        4.2.3 特征词引入GMM建模第48-51页
        4.2.4 动作识别第51-55页
        4.2.5 实验结果与分析第55-57页
        4.2.6 小结第57页
    4.3 基于One-shot learning的人体动作识别第57-65页
        4.3.1 基于K近邻算法的关键姿态的提取第57-59页
        4.3.2 关键姿态的筛选过滤和权重配置第59-61页
        4.3.3 动作识别第61-62页
        4.3.4 实验结果第62-65页
    4.4 本章小结第65-66页
第五章 融合视频信息和骨骼点数据的人体动作识别第66-79页
    5.1 基于彩色视频信息特征提取第66-69页
    5.2 融合机制第69-70页
    5.3 基于词袋模型的融合算法第70-71页
    5.4 基于One-shot learning的融合算法第71-72页
    5.5 实验结果与分析第72-78页
        5.5.1 基于词袋模型的融合算法实验第73-75页
        5.5.2 基于One-shot learning的融合算法实验第75-78页
    5.6 本章小结第78-79页
第六章 结论与展望第79-81页
    6.1 总结第79-80页
    6.2 展望第80-81页
参考文献第81-86页
致谢第86-87页
附录第87页

论文共87页,点击 下载论文
上一篇:基于并行计算的流程对象知识发现系统的研究与实现
下一篇:面向手势自然交互的人机相向互动模型与算法研究