摘要 | 第3-4页 |
Abstract | 第4页 |
1 绪论 | 第7-12页 |
1.1 研究背景和意义 | 第7-8页 |
1.2 国内外研究现状 | 第8-10页 |
1.2.1 人体动作识别研究现状 | 第8-9页 |
1.2.2 第一视角动作识别研究现状 | 第9-10页 |
1.3 本文主要工作 | 第10页 |
1.4 本文结构 | 第10-12页 |
2 动作识别方法综述 | 第12-27页 |
2.1 引言 | 第12页 |
2.2 传统视角视频中动作识别方法 | 第12-19页 |
2.2.1 动作的传统特征表示 | 第12-14页 |
2.2.2 动作的深度学习表示 | 第14-19页 |
2.3 第一视角视频内容分析 | 第19-20页 |
2.4 第一视角手物交互识别方法 | 第20-23页 |
2.4.1 第一视角交互物体识别网络 | 第20-21页 |
2.4.2 第一视角手部动作识别网络 | 第21-23页 |
2.4.3 多网络融合策略 | 第23页 |
2.5 第一视角视频户外动作识别方法 | 第23-26页 |
2.6 本章小结 | 第26-27页 |
3 基于全局与局部网络融合的第一视角人机交互动作识别 | 第27-39页 |
3.1 引言 | 第27-28页 |
3.2 3D卷积神经网络 | 第28-30页 |
3.3 基于视频的采样规则 | 第30页 |
3.4 基于光流的局部区域提取 | 第30-31页 |
3.4.1 局部光流去噪处理 | 第30-31页 |
3.4.2 局部网络输入处理 | 第31页 |
3.5 全局与局部识别网络融合模型 | 第31-33页 |
3.6 实验评估 | 第33-38页 |
3.6.1 实验数据库 | 第33-34页 |
3.6.2 实验设置 | 第34-35页 |
3.6.3 实验结果与分析 | 第35-38页 |
3.7 本章小结 | 第38-39页 |
4 基于场景与动作网络融合的第一视角户外运动识别 | 第39-52页 |
4.1 引言 | 第39页 |
4.2 基于2D卷积网络的场景识别 | 第39-42页 |
4.2.1 图像分类网络模型 | 第39-41页 |
4.2.2 基于CaffeNet的场景识别网络 | 第41-42页 |
4.3 基于3D卷积的全局动作识别 | 第42-43页 |
4.4 动作与场景识别网络融合模型 | 第43-44页 |
4.5 实验评估 | 第44-50页 |
4.5.1 实验数据库 | 第44-45页 |
4.5.2 实验设置 | 第45-46页 |
4.5.3 实验结果与分析 | 第46-50页 |
4.6 本章小结 | 第50-52页 |
5 动作识别系统的设计与实现 | 第52-60页 |
5.1 引言 | 第52页 |
5.2 系统设计 | 第52页 |
5.3 系统实现及主要功能 | 第52-54页 |
5.3.1 系统搭建与实现 | 第52-53页 |
5.3.2 系统主要功能 | 第53-54页 |
5.4 系统使用流程及分析 | 第54-59页 |
5.4.1 系统流程及界面展示 | 第54-59页 |
5.5 本章小结 | 第59-60页 |
6 结论与展望 | 第60-62页 |
6.1 结论 | 第60-61页 |
6.2 展望 | 第61-62页 |
致谢 | 第62-63页 |
参考文献 | 第63-69页 |
附录 | 第69页 |