基于递归神经网络的视频行为建模和识别方法研究
摘要 | 第4-6页 |
Abstract | 第6-7页 |
符号列表 | 第13-14页 |
第1章 引言 | 第14-20页 |
1.1 视频建模与识别 | 第14-17页 |
1.1.1 递归神经网络对视频建模的难点 | 第15-17页 |
1.2 论文贡献 | 第17-18页 |
1.2.1 时空注意力机制 | 第17页 |
1.2.2 姿态注意力机制 | 第17-18页 |
1.3 论文大纲 | 第18-20页 |
第2章 背景 | 第20-28页 |
2.1 基于手工特征的视频识别方法 | 第20-21页 |
2.2 基于深度学习的视频识别方法 | 第21-23页 |
2.3 递归神经网络与行为识别 | 第23-28页 |
第3章 递归时空注意力网络对视频的行为建模和识别 | 第28-58页 |
3.1 引言 | 第28-31页 |
3.2 相关工作 | 第31-33页 |
3.3 网络设计 | 第33-42页 |
3.3.1 双流网络中的特征提取 | 第33-34页 |
3.3.2 LSTM中的时空注意力机制 | 第34-36页 |
3.3.3 注意力引导的表观流和运动流融合 | 第36-37页 |
3.3.4 行为人-注意力正则项 | 第37-42页 |
3.4 实验 | 第42-51页 |
3.4.1 数据集介绍 | 第42页 |
3.4.2 模型实现细节 | 第42-44页 |
3.4.3 递归时空注意力网络的特性 | 第44-47页 |
3.4.4 与其他实验结果的比较 | 第47-51页 |
3.5 可视化 | 第51-56页 |
3.6 总结 | 第56-58页 |
第4章 递归姿态注意力网络对视频的行为建模和识别 | 第58-86页 |
4.1 引言 | 第58-60页 |
4.2 相关工作 | 第60-61页 |
4.2.1 基于姿态的行为识别 | 第61页 |
4.3 网络设计 | 第61-67页 |
4.3.1 卷积层特征提取 | 第63-64页 |
4.3.2 姿态注意力机制 | 第64-65页 |
4.3.3 LSTM时序建模 | 第65-66页 |
4.3.4 损失函数 | 第66-67页 |
4.4 实验 | 第67-82页 |
4.4.1 实验细节 | 第68-69页 |
4.4.2 实验结果 | 第69页 |
4.4.3 递归姿态注意力机制的特性 | 第69-77页 |
4.4.4 模型拓展与探索实验 | 第77-80页 |
4.4.5 视频中的姿态估计 | 第80-82页 |
4.5 可视化 | 第82-85页 |
4.6 总结 | 第85-86页 |
第5章 总结与展望 | 第86-88页 |
5.1 未来工作 | 第87-88页 |
参考文献 | 第88-94页 |
作者简历及攻读学位期间发表的学术论文与研究成果 | 第94-96页 |
致谢 | 第96页 |