首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于空时信息的行为识别方法研究

摘要第5-7页
abstract第7-8页
第一章 绪论第14-31页
    1.1 课题背景及研究意义第14-15页
    1.2 研究历史与现状第15-28页
        1.2.1 视频特征描述方法第15-25页
            1.2.1.1 基于无标签特征描述第16-22页
            1.2.1.2 基于有标签特征描述第22-24页
            1.2.1.3 基于弱标签特征描述第24-25页
        1.2.2 行为识别研究机构及常用数据集第25-28页
            1.2.2.1 行为识别研究机构第25-26页
            1.2.2.2 行为识别常用数据集第26-28页
    1.3 本文的主要贡献与创新第28-29页
    1.4 本论文结构内容安排第29-31页
第二章 基于空时显著结构提取的行为识别方法研究第31-48页
    2.1 引言第31-33页
    2.2 基于视频分割的视觉词袋模型第33-34页
    2.3 视频分割区域联合显著测度第34-35页
    2.4 基于类判别性显著测度第35-38页
    2.5 实验结果分析与讨论第38-47页
        2.5.1 实验设置第38-40页
        2.5.2 在不同数据集上的实验结果第40-42页
        2.5.3 对不同空时区域划分的评估第42-43页
        2.5.4 对不同池化方式的评估第43-45页
        2.5.5 对不同显著谱的评估第45-47页
    2.6 本章小结第47-48页
第三章 基于人眼注视辅助空时多路深度网络行为识别方法研究第48-69页
    3.1 引言第48-50页
    3.2 相关工作第50-51页
    3.3 基于人眼注视辅助的空时多路深度网络模型第51页
    3.4 人眼注视数据集构建第51-54页
        3.4.1 人眼运动数据采集设备介绍第51-52页
        3.4.2 基准数据集介绍第52-53页
        3.4.3 人眼注视数据具体采集流程第53-54页
    3.5 联合动态注视谱的多路深度学习网络第54-59页
        3.5.1 动态注视谱第54-57页
        3.5.2 动态注视谱融合模式第57-58页
        3.5.3 五路深度网络架构第58-59页
            3.5.3.1 数据增广第58-59页
            3.5.3.2 网络参数设置第59页
    3.6 基于全卷积深度网络的人眼注视预测模型第59-61页
        3.6.1 网络模型介绍第59-61页
        3.6.2 网络参数设置第61页
    3.7 实验结果分析与讨论第61-68页
        3.7.1 实验设置第61-63页
        3.7.2 与现有方法的对比第63-64页
        3.7.3 不同动态注视模式的实验结果第64-65页
        3.7.4 不同多路深度网络实验结果第65-67页
        3.7.5 基于人眼注视预测辅助的跨域行为识别第67-68页
    3.8 本章小结第68-69页
第四章 基于多时域尺度跳帧空时双路深度网络行为识别方法研究第69-86页
    4.1 引言第69-70页
    4.2 本章工作框架第70页
    4.3 基于鲁棒轨迹强度的视频动态结构检测第70-73页
        4.3.1 距离归一化及空域尺寸归一化第71-72页
        4.3.2 转场惩罚项第72-73页
    4.4 基于跳帧的深度网络模型第73-79页
        4.4.1 基于跳帧层叠光流表示的理论基础第73-78页
        4.4.2 基于跳帧的光流表示第78-79页
        4.4.3 网络设置细节第79页
    4.5 实验结果分析与讨论第79-85页
        4.5.1 实验设置第79-80页
        4.5.2 在不同数据库上的实验结果第80-81页
        4.5.3 对不同帧选择模式的评估第81-82页
        4.5.4 不同跳帧模式的实验结果第82-85页
    4.6 本章小结第85-86页
第五章 基于空时关联性的自监督行为识别与预测方法研究第86-98页
    5.1 引言第86-87页
    5.2 基于自监督学习的视频描述第87-89页
    5.3 视频帧编码第89-90页
        5.3.1 差分求和编码第89页
        5.3.2 动态图编码第89-90页
        5.3.3 动态光流编码第90页
    5.4 基于视频相关性Siamese网络模型第90-92页
    5.5 基于运动信息的时域分割第92页
    5.6 实验结果分析与讨论第92-96页
        5.6.1 实验设置第92-93页
        5.6.2 实验基准对比第93页
        5.6.3 与现有方法的对比第93-96页
    5.7 本章小结第96-98页
第六章 全文总结与展望第98-100页
    6.1 总结及创新第98-99页
    6.2 后续工作展望第99-100页
致谢第100-101页
参考文献第101-114页
攻博期间取得的研究成果第114-115页

论文共115页,点击 下载论文
上一篇:推荐系统若干关键技术研究
下一篇:UHF RFID读写器收发前端电路关键技术研究