首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于Kinect的多通道特征联合的人体行为识别

摘要第5-6页
ABSTRACT第6-7页
第1章 绪论第10-19页
    1.1 本课题研究背景及意义第10-11页
    1.2 国内外研究现状第11-16页
    1.3 本文研究内容第16页
    1.4 本文的结构安排第16-19页
第2章 人体行为识别相关工具及技术介绍第19-34页
    2.1 Kinect的相关介绍第19-22页
        2.1.1 Kinect硬件平台介绍第19-20页
        2.1.2 Kinect SDK软件开发工具包第20-22页
    2.2 Kinect数据采集与分析第22-27页
        2.2.1 RGB-D深度数据的获取原理及方法第22-24页
        2.2.2 骨骼关节点的获取原理及介绍第24-27页
    2.3 Bag of words模型第27-32页
        2.3.1 BOW模型相关介绍第27-28页
        2.3.2 BOW创建过程第28-32页
    2.4 基于Kinect的人体行为识别第32-34页
第3章 基于多通道的特征提取第34-47页
    3.1 本文所提算法的概述第34页
    3.2 特征提取方法第34-39页
        3.2.1 HOG特征提取方法第34-36页
        3.2.2 SURF时空兴趣点检测第36-37页
        3.2.3 运动历史图像表示第37-39页
    3.3 基于RGB-D的特征提取方法第39-42页
        3.3.1 彩色图像局部时空特征的提取方法第39-41页
        3.3.2 深度图像时空HOG特征的提取方法第41-42页
    3.4 基于骨骼关节点的特征提取方法第42-47页
        3.4.1 关节对位置特征提取第43页
        3.4.2 局部行为特征提取第43-44页
        3.4.3 傅里叶时间金字塔特征表示第44-47页
第4章 模型的训练第47-55页
    4.1 二分类支持向量机第47页
    4.2 多分类支持向量机第47-48页
    4.3 级联SVM的学习训练第48-51页
    4.4 数据集第51-55页
        4.4.1 KARD数据集第51-52页
        4.4.2 CAD-60数据集第52页
        4.4.3 UT Kinect数据集第52-53页
        4.4.4 MSRDailyActivity3D数据集第53-54页
        4.4.5 本文的真实场景数据集第54-55页
第5章 算法评估第55-68页
    5.1 基线第55页
        5.1.1 RGB第55页
        5.1.2 RGB-DEP第55页
        5.1.3 RGB-DEP-SKE第55页
    5.2 实验结果和分析第55-68页
        5.2.1 KARD数据集的实验结果第56-59页
        5.2.2 CAD-60数据集的实验结果第59-62页
        5.2.3 UT Kinect数据集的实验结果第62-65页
        5.2.4 MSRDailyActivity3D数据集的实验结果第65-66页
        5.2.5 本文真实场景数据集的实验结果第66-68页
第6章 总结与展望第68-70页
    6.1 总结第68页
    6.2 展望第68-70页
参考文献第70-75页
攻读硕士期间公开发表论文第75-76页
致谢第76页

论文共76页,点击 下载论文
上一篇:基于时态图的实体依赖性分析方法研究
下一篇:不确定数据库的近似极大频繁项集挖掘