基于深度学习的视频内容描述研究
| 摘要 | 第5-7页 |
| ABSTRACT | 第7-8页 |
| 第1章 绪论 | 第11-17页 |
| 1.1 研究背景与意义 | 第11-12页 |
| 1.2 国内外研究现状 | 第12-15页 |
| 1.3 主要研究内容 | 第15页 |
| 1.4 本文结构安排 | 第15-17页 |
| 第2章 视频内容描述技术理论基础 | 第17-39页 |
| 2.1 视频内容描述生成定义 | 第17-18页 |
| 2.2 注意力机制概述 | 第18-25页 |
| 2.3 强化学习概述 | 第25-28页 |
| 2.4 基于深度学习的视频内容描述生成 | 第28-38页 |
| 2.4.1 卷积神经网络和循环神经网络 | 第30-34页 |
| 2.4.2 基于编码解码器框架的视频内容描述 | 第34-38页 |
| 2.5 本章小结 | 第38-39页 |
| 第3章 基于多模态注意力机制的视频内容描述 | 第39-58页 |
| 3.1 引言 | 第39-40页 |
| 3.2 基于多模态注意力机制的视频内容描述方法 | 第40-44页 |
| 3.2.1 多模态语义属性编码器 | 第41-42页 |
| 3.2.2 注意力机制LSTM解码器 | 第42-44页 |
| 3.3 实验与分析 | 第44-57页 |
| 3.3.1 实验设置 | 第45-50页 |
| 3.3.2 实验结果分析 | 第50-57页 |
| 3.4 本章小结 | 第57-58页 |
| 第4章 基于自判别序列训练的视频内容描述 | 第58-69页 |
| 4.1 引言 | 第58-60页 |
| 4.2 基于自判别序列训练的视频内容描述方法 | 第60-63页 |
| 4.3 实验与分析 | 第63-68页 |
| 4.3.1 实验设置 | 第63-64页 |
| 4.3.2 实验结果分析 | 第64-68页 |
| 4.4 本章小结 | 第68-69页 |
| 第5章 总结和展望 | 第69-71页 |
| 5.1 总结 | 第69页 |
| 5.2 展望 | 第69-71页 |
| 参考文献 | 第71-76页 |
| 致谢 | 第76-77页 |
| 在读期间发表的学术论文与取得的研究成果 | 第77页 |