基于递归神经网络的视频行为建模和识别方法研究
| 摘要 | 第4-6页 |
| Abstract | 第6-7页 |
| 符号列表 | 第13-14页 |
| 第1章 引言 | 第14-20页 |
| 1.1 视频建模与识别 | 第14-17页 |
| 1.1.1 递归神经网络对视频建模的难点 | 第15-17页 |
| 1.2 论文贡献 | 第17-18页 |
| 1.2.1 时空注意力机制 | 第17页 |
| 1.2.2 姿态注意力机制 | 第17-18页 |
| 1.3 论文大纲 | 第18-20页 |
| 第2章 背景 | 第20-28页 |
| 2.1 基于手工特征的视频识别方法 | 第20-21页 |
| 2.2 基于深度学习的视频识别方法 | 第21-23页 |
| 2.3 递归神经网络与行为识别 | 第23-28页 |
| 第3章 递归时空注意力网络对视频的行为建模和识别 | 第28-58页 |
| 3.1 引言 | 第28-31页 |
| 3.2 相关工作 | 第31-33页 |
| 3.3 网络设计 | 第33-42页 |
| 3.3.1 双流网络中的特征提取 | 第33-34页 |
| 3.3.2 LSTM中的时空注意力机制 | 第34-36页 |
| 3.3.3 注意力引导的表观流和运动流融合 | 第36-37页 |
| 3.3.4 行为人-注意力正则项 | 第37-42页 |
| 3.4 实验 | 第42-51页 |
| 3.4.1 数据集介绍 | 第42页 |
| 3.4.2 模型实现细节 | 第42-44页 |
| 3.4.3 递归时空注意力网络的特性 | 第44-47页 |
| 3.4.4 与其他实验结果的比较 | 第47-51页 |
| 3.5 可视化 | 第51-56页 |
| 3.6 总结 | 第56-58页 |
| 第4章 递归姿态注意力网络对视频的行为建模和识别 | 第58-86页 |
| 4.1 引言 | 第58-60页 |
| 4.2 相关工作 | 第60-61页 |
| 4.2.1 基于姿态的行为识别 | 第61页 |
| 4.3 网络设计 | 第61-67页 |
| 4.3.1 卷积层特征提取 | 第63-64页 |
| 4.3.2 姿态注意力机制 | 第64-65页 |
| 4.3.3 LSTM时序建模 | 第65-66页 |
| 4.3.4 损失函数 | 第66-67页 |
| 4.4 实验 | 第67-82页 |
| 4.4.1 实验细节 | 第68-69页 |
| 4.4.2 实验结果 | 第69页 |
| 4.4.3 递归姿态注意力机制的特性 | 第69-77页 |
| 4.4.4 模型拓展与探索实验 | 第77-80页 |
| 4.4.5 视频中的姿态估计 | 第80-82页 |
| 4.5 可视化 | 第82-85页 |
| 4.6 总结 | 第85-86页 |
| 第5章 总结与展望 | 第86-88页 |
| 5.1 未来工作 | 第87-88页 |
| 参考文献 | 第88-94页 |
| 作者简历及攻读学位期间发表的学术论文与研究成果 | 第94-96页 |
| 致谢 | 第96页 |