摘要 | 第5-7页 |
abstract | 第7-8页 |
第一章 绪论 | 第13-20页 |
1.1 引言 | 第13-14页 |
1.2 基于深度学习的人类行为识别与视频描述生成的国内外研究现状 | 第14-17页 |
1.2.1 深度学习在视觉方面的发展历程 | 第14-16页 |
1.2.2 基于深度学习的人类行为识别研究现状 | 第16-17页 |
1.2.3 基于深度学习的视频描述生成研究现状 | 第17页 |
1.3 本文的主要研究工作与创新 | 第17-18页 |
1.4 本文的结构安排 | 第18-20页 |
第二章 行为识别和视频描述生成技术基础与相关核心研究问题 | 第20-26页 |
2.1 行为识别的核心技术及其相关问题和挑战 | 第20-23页 |
2.1.1 浅层学习模型 | 第20-21页 |
2.1.2 深度学习模型 | 第21-23页 |
2.2 视频描述生成基础及相关问题和挑战 | 第23-24页 |
2.3 本章小节 | 第24-26页 |
第三章 深度学习核心技术基础 | 第26-33页 |
3.1 后向传播算法(Backpropagation) | 第26-27页 |
3.2 深度卷积神经网络 | 第27-29页 |
3.3 深度递归神经网络 | 第29-32页 |
3.4 本章小结 | 第32-33页 |
第四章 基于3D深度卷积网络的人类行为识别的方法研究 | 第33-48页 |
4.1 相关工作与动机 | 第33-34页 |
4.2 提出的方法 | 第34-40页 |
4.2.1 基础网络框架 | 第34-35页 |
4.2.2 基于空域和时域的金字塔池化技术 | 第35-37页 |
4.2.3 行为完整性建模 | 第37-38页 |
4.2.4 多模态特征学习 | 第38-39页 |
4.2.5 网络优化方法 | 第39页 |
4.2.6 网络多尺度输入 | 第39页 |
4.2.7 网络训练方式 | 第39-40页 |
4.3 实验设计与结果分析 | 第40-47页 |
4.3.1 数据集与评价标准 | 第41页 |
4.3.2 基本实验环境说明 | 第41-42页 |
4.3.3 网络各个基本模块研究性实验 | 第42-44页 |
4.3.4 对比实验 | 第44-47页 |
4.4 本章小节 | 第47-48页 |
第五章 基于语义的时域注意力机制的视频描述生成的方法研究 | 第48-61页 |
5.1 相关工作与动机 | 第48-49页 |
5.2 提出的方法 | 第49-55页 |
5.2.1 视觉语义概念学习 | 第50页 |
5.2.2 基于语义信息的视频描述生成网络 | 第50-53页 |
5.2.3 联合学习语义概念检测和描述生成 | 第53-55页 |
5.3 实验设计与结果分析 | 第55-60页 |
5.3.1 实验设定 | 第55-57页 |
5.3.2 基本编码-解码模型的研究性实验 | 第57-58页 |
5.3.3 视频描述生成网络框架的研究性实验 | 第58-59页 |
5.3.4 对比实验 | 第59-60页 |
5.4 本章小节 | 第60-61页 |
第六章 全文总结与展望 | 第61-63页 |
6.1 全文总结 | 第61页 |
6.2 后续工作展望 | 第61-63页 |
致谢 | 第63-64页 |
参考文献 | 第64-67页 |
攻硕期间取得的研究成果 | 第67-68页 |