首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于Kinect的人的行为识别研究

摘要第5-6页
ABSTRACT第6页
第一章 绪论第9-15页
    1.1 论文的背景与意义第9-10页
    1.2 研究现状及分析第10-13页
        1.2.1 人的行为理解技术发展现状第10-12页
        1.2.2 基于深度信息和骨骼图像的人的行为理解技术研究现状第12-13页
        1.2.3 基于物体信息和人体信息的人的行为理解技术研究现状第13页
    1.3 论文主要内容及结构安排第13-15页
第二章 人的行为理解算法平台介绍第15-23页
    2.1 Kinect硬件平台介绍第15-17页
        2.1.1 Kinect深度图像成像原理第16页
        2.1.2 骨骼图像成像原理第16-17页
    2.2 Kinect SDK介绍第17-21页
        2.2.1 Kinect SDK总体架构第18页
        2.2.2 Kinect SDK获取彩色图像、深度图像、骨骼图像第18-19页
        2.2.3 彩色空间、深度空间和骨骼坐标空间关系第19-21页
    2.3 实验环境设定第21-22页
    2.4 本章小结第22-23页
第三章 行为识别算法总体结构及关键姿态、人体动作提取第23-45页
    3.1 行为识别算法总体结构第23-24页
    3.2 关键姿态提取第24-29页
        3.2.1 关键姿态的定义第24-27页
        3.2.2 关键姿态特征的提取第27-29页
    3.3 关键姿态的状态分类算法第29-36页
        3.3.1 SVM算法简介第30页
        3.3.2 线性可分SVM第30-32页
        3.3.3 线性SVM第32-33页
        3.3.4 非线性SVM第33-34页
        3.3.5 关键姿态的状态分类算法实验第34-36页
    3.4 人体动作特征提取第36-38页
        3.4.1 人体动作的定义第36-37页
        3.4.2 人体动作特征提取第37-38页
    3.5 人体动作的状态分类第38-44页
        3.5.1 动态时间规整算法简介第39-40页
        3.5.2 K近邻算法简介第40-41页
        3.5.3 人体动作的状态识别实验第41-44页
    3.6 本章小结第44-45页
第四章 基于彩色图像和深度图像的手持物体识别第45-55页
    4.1 手持物体分割第45-48页
        4.1.1 基于深度值的区域分割第45-47页
        4.1.2 手部颜色模型第47-48页
    4.2 手持物体特征提取第48-51页
        4.2.1 手持物体彩色图像特征提取第48-50页
        4.2.2 手持物体深度图像特征提取第50-51页
    4.3 手持物体特征分类与识别实验第51-53页
    4.4 本章小结第53-55页
第五章 人的行为理解算法研究第55-67页
    5.1 行为编码第55-56页
    5.2 状态关联分析第56-60页
        5.2.1 关联分析算法简介第56-57页
        5.2.2 Apriori算法第57-58页
        5.2.3 FP-growth算法第58-60页
    5.3 基于朴素贝叶斯的人的行为理解算法第60-65页
        5.3.1 朴素贝叶斯法简介第61-63页
        5.3.2 基于朴素贝叶斯的行为分析第63-65页
    5.4 本章小结第65-67页
第六章 总结和展望第67-69页
    6.1 总结第67页
    6.2 展望第67-69页
致谢第69-71页
参考文献第71-75页
攻读硕士学位期间发表的论文第75页

论文共75页,点击 下载论文
上一篇:铁道智能防溜终端设计与研发
下一篇:监控视频中行人检测算法研究