基于深度学习的视觉内容描述技术研究
摘要 | 第5-7页 |
Abstract | 第7-8页 |
第一章 绪论 | 第11-18页 |
1.1 研究背景与意义 | 第11-12页 |
1.2 研究现状 | 第12-15页 |
1.2.1 深度学习的研究现状 | 第12-14页 |
1.2.2 基于深度学习的视觉语义研究现状 | 第14-15页 |
1.3 主要研究内容 | 第15-18页 |
第二章 相关基础理论 | 第18-34页 |
2.1 基本深度学习网络模型 | 第18-22页 |
2.1.1 反向传播算法 | 第18-19页 |
2.1.2 卷积神经网络模型 | 第19-21页 |
2.1.3 循环神经网络模型 | 第21-22页 |
2.2 生成对抗网络和深度强化学习 | 第22-26页 |
2.2.1 生成对抗网络 | 第22-24页 |
2.2.2 深度强化学习 | 第24-26页 |
2.3 基于深度学习的视觉内容描述 | 第26-30页 |
2.3.1 基于深度学习的图像描述 | 第27-29页 |
2.3.2 基于深度学习的视频描述 | 第29-30页 |
2.4 视觉描述评价指标 | 第30-33页 |
2.4.1 BLEU | 第31页 |
2.4.2 ROUGE_L | 第31-32页 |
2.4.3 METEOR | 第32页 |
2.4.4 CIDEr | 第32-33页 |
2.5 本章小结 | 第33-34页 |
第三章 时空及通道的多注意力机制视频描述模型 | 第34-54页 |
3.1 视频描述相关工作与研究 | 第34-35页 |
3.2 注意力机制 | 第35-39页 |
3.2.1 时域注意力机制 | 第35-36页 |
3.2.2 空域注意力机制 | 第36-37页 |
3.2.3 通道注意力机制 | 第37-39页 |
3.3 多注意力机制的视频描述模型 | 第39-43页 |
3.3.1 模型训练 | 第40-41页 |
3.3.2 模型测试 | 第41-43页 |
3.4 基于视频描述的视觉显著性探索分析 | 第43-45页 |
3.5 实验结果分析 | 第45-52页 |
3.5.1 实验环境设置 | 第45-46页 |
3.5.2 不同注意力组合实验结果分析 | 第46-47页 |
3.5.3 不同搜索策略实验结果分析 | 第47-48页 |
3.5.4 实验结果对比分析 | 第48-49页 |
3.5.5 基于视频描述的视觉显著性结果分析 | 第49-52页 |
3.6 本章小结 | 第52-54页 |
第四章 基于GAN网络和RL的视频描述模型 | 第54-68页 |
4.1 基本视频描述模型的局限性 | 第54-55页 |
4.2 基于GAN网络和RL的视频描述模型 | 第55-58页 |
4.2.1 G网络 | 第56-57页 |
4.2.2 D网络 | 第57-58页 |
4.3 训练机制 | 第58-62页 |
4.3.1 训练G网络 | 第58-60页 |
4.3.2 训练D网络 | 第60-61页 |
4.3.3 整体训练 | 第61-62页 |
4.4 实验结果分析 | 第62-66页 |
4.4.1 实验环境及设置 | 第62页 |
4.4.2 模型评价 | 第62-66页 |
4.5 本章小结 | 第66-68页 |
第五章 总结与展望 | 第68-70页 |
5.1 全文总结 | 第68-69页 |
5.2 后续工作展望 | 第69-70页 |
致谢 | 第70-71页 |
参考文献 | 第71-75页 |
攻读硕士学位期间取得的成果 | 第75页 |