首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于深度学习的第一视角视频动作识别技术研究

摘要第3-4页
Abstract第4页
1 绪论第7-12页
    1.1 研究背景和意义第7-8页
    1.2 国内外研究现状第8-10页
        1.2.1 人体动作识别研究现状第8-9页
        1.2.2 第一视角动作识别研究现状第9-10页
    1.3 本文主要工作第10页
    1.4 本文结构第10-12页
2 动作识别方法综述第12-27页
    2.1 引言第12页
    2.2 传统视角视频中动作识别方法第12-19页
        2.2.1 动作的传统特征表示第12-14页
        2.2.2 动作的深度学习表示第14-19页
    2.3 第一视角视频内容分析第19-20页
    2.4 第一视角手物交互识别方法第20-23页
        2.4.1 第一视角交互物体识别网络第20-21页
        2.4.2 第一视角手部动作识别网络第21-23页
        2.4.3 多网络融合策略第23页
    2.5 第一视角视频户外动作识别方法第23-26页
    2.6 本章小结第26-27页
3 基于全局与局部网络融合的第一视角人机交互动作识别第27-39页
    3.1 引言第27-28页
    3.2 3D卷积神经网络第28-30页
    3.3 基于视频的采样规则第30页
    3.4 基于光流的局部区域提取第30-31页
        3.4.1 局部光流去噪处理第30-31页
        3.4.2 局部网络输入处理第31页
    3.5 全局与局部识别网络融合模型第31-33页
    3.6 实验评估第33-38页
        3.6.1 实验数据库第33-34页
        3.6.2 实验设置第34-35页
        3.6.3 实验结果与分析第35-38页
    3.7 本章小结第38-39页
4 基于场景与动作网络融合的第一视角户外运动识别第39-52页
    4.1 引言第39页
    4.2 基于2D卷积网络的场景识别第39-42页
        4.2.1 图像分类网络模型第39-41页
        4.2.2 基于CaffeNet的场景识别网络第41-42页
    4.3 基于3D卷积的全局动作识别第42-43页
    4.4 动作与场景识别网络融合模型第43-44页
    4.5 实验评估第44-50页
        4.5.1 实验数据库第44-45页
        4.5.2 实验设置第45-46页
        4.5.3 实验结果与分析第46-50页
    4.6 本章小结第50-52页
5 动作识别系统的设计与实现第52-60页
    5.1 引言第52页
    5.2 系统设计第52页
    5.3 系统实现及主要功能第52-54页
        5.3.1 系统搭建与实现第52-53页
        5.3.2 系统主要功能第53-54页
    5.4 系统使用流程及分析第54-59页
        5.4.1 系统流程及界面展示第54-59页
    5.5 本章小结第59-60页
6 结论与展望第60-62页
    6.1 结论第60-61页
    6.2 展望第61-62页
致谢第62-63页
参考文献第63-69页
附录第69页

论文共69页,点击 下载论文
上一篇:基于智能优化的有限混合模型算法及应用研究
下一篇:多标记学习算法及其在商品评价打分中应用研究