摘要 | 第4-5页 |
abstract | 第5-6页 |
第一章 绪论 | 第9-16页 |
1.1 研究工作的背景与意义 | 第9-10页 |
1.2 国内外研究历史与现状 | 第10-13页 |
1.3 本文的主要研究内容与贡献 | 第13-14页 |
1.4 本论文的结构安排 | 第14-16页 |
第二章 视频自动描述技术概述 | 第16-33页 |
2.1 解决图像描述任务的几种方法 | 第16-18页 |
2.2 基于编码-解码的视频描述模型 | 第18-24页 |
2.2.1 编码-解码架构 | 第19-21页 |
2.2.2 卷积神经网络 | 第21-23页 |
2.2.3 循环神经网络 | 第23-24页 |
2.3 融合注意力机制的视频描述模型 | 第24-27页 |
2.3.1 注意力机制 | 第24-27页 |
2.4 强化学习 | 第27-32页 |
2.4.1 马尔可夫决策 | 第27-29页 |
2.4.2 Q-learning算法 | 第29页 |
2.4.3 DeepQ-Learning算法 | 第29-30页 |
2.4.4 策略梯度算法 | 第30-32页 |
2.5 本章小结 | 第32-33页 |
第三章 基于策略学习的区域注意力视频描述模型 | 第33-51页 |
3.1 总体框架 | 第33-34页 |
3.2 编码-解码架构 | 第34-42页 |
3.2.1 编码器 | 第34-40页 |
3.2.1.1 预训练的VGGNet | 第35-36页 |
3.2.1.2 预训练的C3DNet | 第36-38页 |
3.2.1.3 WordEmbedding | 第38-39页 |
3.2.1.4 正则化处理 | 第39-40页 |
3.2.2 解码器 | 第40-42页 |
3.2.2.1 长短期记忆网络 | 第40-42页 |
3.3 策略定位网络 | 第42-45页 |
3.4 区域注意力网络 | 第45-48页 |
3.4.1 时间注意力网络 | 第46-47页 |
3.4.2 dropout层 | 第47-48页 |
3.4.3 区域特征提取 | 第48页 |
3.5 训练过程 | 第48-50页 |
3.6 本章小结 | 第50-51页 |
第四章 模型性能测试及分析 | 第51-64页 |
4.1 数据集及度量标准 | 第51-54页 |
4.1.1 数据集 | 第51页 |
4.1.2 度量标准 | 第51-54页 |
4.1.2.1 BLEU | 第51-52页 |
4.1.2.2 METEOR | 第52-53页 |
4.1.2.3 CIDEr | 第53-54页 |
4.2 实验流程 | 第54页 |
4.3 MSVD数据集性能测试 | 第54-56页 |
4.3.1 比较模型 | 第54-55页 |
4.3.2 实验结果及分析 | 第55-56页 |
4.4 TACoS-MultiLevel数据集性能测试 | 第56-57页 |
4.4.1 比较模型 | 第56-57页 |
4.4.2 实验结果及分析 | 第57页 |
4.5 模型超参数分析 | 第57-60页 |
4.5.1 LSTM网络隐藏单元维度 | 第58页 |
4.5.2 wordembedding词向量维度 | 第58-59页 |
4.5.3 glimpse操作的次数 | 第59页 |
4.5.4 滑窗网络尺寸 | 第59-60页 |
4.6 质量分析 | 第60-63页 |
4.7 本章小结 | 第63-64页 |
第五章 全文总结与展望 | 第64-68页 |
5.1 全文总结 | 第64-65页 |
5.2 后续工作展望 | 第65-68页 |
致谢 | 第68-69页 |
参考文献 | 第69-73页 |
攻硕期间取得的研究成果 | 第73页 |