基于深度学习的视频描述技术研究与应用
摘要 | 第4-6页 |
Abstract | 第6-8页 |
第一章 绪论 | 第17-29页 |
1.1 研究背景以及意义 | 第17-18页 |
1.2 研究现状 | 第18-24页 |
1.2.1 早期研究方法 | 第18-19页 |
1.2.2 采用深度学习的方法 | 第19-24页 |
1.3 研究内容与组织结构 | 第24-29页 |
1.3.1 研究内容及成果 | 第24-26页 |
1.3.2 组织结构 | 第26-29页 |
第二章 基础知识 | 第29-39页 |
2.1 卷积神经网络 | 第29-35页 |
2.1.1 卷积神经网络 | 第29-32页 |
2.1.2 AlexNet深度网络 | 第32-33页 |
2.1.3 VGG深度网络 | 第33页 |
2.1.4 ResNet深度网络 | 第33-34页 |
2.1.5 C3D深度网络 | 第34-35页 |
2.2 循环神经网络 | 第35-37页 |
2.2.1 循环神经网络 | 第35页 |
2.2.2 长短时记忆神经网络 | 第35-37页 |
2.2.3 加入监督信息的长短时记忆网络 | 第37页 |
2.3 本章小结 | 第37-39页 |
第三章 首单元输入的视频描述模型 | 第39-49页 |
3.1 引言 | 第39-40页 |
3.2 模型 | 第40-41页 |
3.3 实验 | 第41-45页 |
3.3.1 数据集 | 第41-43页 |
3.3.1.1 Youtube2Text数据集 | 第42页 |
3.3.1.2 MPII-MD数据集 | 第42-43页 |
3.3.2 预处理 | 第43页 |
3.3.3 实验设置 | 第43页 |
3.3.4 对比模型 | 第43-44页 |
3.3.5 评测指标 | 第44-45页 |
3.3.5.1 SVO正确率 | 第44页 |
3.3.5.2 BLEU评测 | 第44页 |
3.3.5.3 METEOR评测 | 第44-45页 |
3.4 结果对比与分析 | 第45-48页 |
3.4.1 SVO正确率评测结果 | 第45-46页 |
3.4.2 BLEU与METEOR评测结果 | 第46-47页 |
3.4.2.1 Youtube2Text数据集 | 第46页 |
3.4.2.2 MPII-MD数据集 | 第46-47页 |
3.4.3 生成结果 | 第47-48页 |
3.5 本章总结 | 第48-49页 |
第四章 加入主谓宾监督信息的视频描述模型 | 第49-56页 |
4.1 引言 | 第49页 |
4.2 模型 | 第49-51页 |
4.3 实验 | 第51-53页 |
4.3.1 预处理 | 第51页 |
4.3.2 实验设置 | 第51-52页 |
4.3.3 对比模型 | 第52页 |
4.3.4 评测指标 | 第52页 |
4.3.5 α值的讨论 | 第52-53页 |
4.4 结果对比与分析 | 第53-55页 |
4.4.1 SVO正确率 | 第53页 |
4.4.2 机器翻译评测方法结果 | 第53-54页 |
4.4.3 生成结果 | 第54-55页 |
4.5 本章小结 | 第55-56页 |
第五章 视觉和文本相融合的模型 | 第56-70页 |
5.1 引言 | 第56-57页 |
5.2 模型 | 第57-59页 |
5.3 实验 | 第59-61页 |
5.3.1 数据集 | 第59-60页 |
5.3.2 预处理 | 第60页 |
5.3.3 实验设置 | 第60页 |
5.3.4 对比模型 | 第60-61页 |
5.3.5 参数讨论 | 第61页 |
5.4 结果对比 | 第61-64页 |
5.4.1 SVO正确率 | 第62页 |
5.4.2 BLEU-4评测和METEOR评测 | 第62-64页 |
5.4.2.1 Youtube2Text数据集 | 第62-64页 |
5.4.2.2 LSMDC评测 | 第64页 |
5.5 分析 | 第64-68页 |
5.5.1 评测结果 | 第65页 |
5.5.2 训练误差曲线图 | 第65-66页 |
5.5.3 可视化 | 第66-68页 |
5.5.4 生成结果 | 第68页 |
5.6 本章小结 | 第68-70页 |
第六章 基于同步交叉注意力的图像描述模型 | 第70-87页 |
6.1 引言 | 第70-71页 |
6.2 模型 | 第71-76页 |
6.2.1 问题形式化 | 第72页 |
6.2.2 三种注意力信息的提取方式 | 第72-74页 |
6.2.2.1 SIA注意力 | 第73页 |
6.2.2.2 SPA注意力 | 第73-74页 |
6.2.2.3 SCA注意力 | 第74页 |
6.2.3 融合策略 | 第74-75页 |
6.2.4 IC-SCA模型结构 | 第75-76页 |
6.3 实验 | 第76-80页 |
6.3.1 数据集 | 第76-77页 |
6.3.2 预处理 | 第77页 |
6.3.3 实验设置 | 第77-78页 |
6.3.4 对比模型 | 第78页 |
6.3.5 实验参数讨论 | 第78-80页 |
6.3.5.1 权值讨论 | 第78-79页 |
6.3.5.2 学习率讨论 | 第79-80页 |
6.3.5.3 隐含层单元个数讨论 | 第80页 |
6.4 结果对比与分析 | 第80-86页 |
6.4.1 结果对比 | 第80-81页 |
6.4.2 分析 | 第81-86页 |
6.4.2.1 融合策略分析 | 第82页 |
6.4.2.2 注意力分析 | 第82-83页 |
6.4.2.3 生成结果 | 第83-84页 |
6.4.2.4 注意力可视化 | 第84-85页 |
6.4.2.5 模型可视化 | 第85-86页 |
6.5 本章小结 | 第86-87页 |
第七章 系统演示 | 第87-95页 |
7.1 系统设计概要 | 第87-88页 |
7.1.1 手机端应用 | 第87-88页 |
7.1.2 网页展示 | 第88页 |
7.2 模块设计与实现 | 第88-92页 |
7.2.1 应用端表示层 | 第88-90页 |
7.2.2 网页端表示层 | 第90页 |
7.2.3 服务器处理层 | 第90-92页 |
7.3 系统演示 | 第92-93页 |
7.3.1 “盲眼”手机应用 | 第92页 |
7.3.2 网页展示系统 | 第92-93页 |
7.4 本章小结 | 第93-95页 |
第八章 总结与展望 | 第95-98页 |
8.1 本文工作总结 | 第95-96页 |
8.2 下一步研究展望 | 第96-98页 |
8.2.1 关于视频特征提取 | 第96页 |
8.2.2 关于视觉和文本模态信息的融合 | 第96-97页 |
8.2.3 关于扩展任务:生成段落描述 | 第97页 |
8.2.4 关于扩展任务:生成段落描述 | 第97-98页 |
参考文献 | 第98-106页 |
附录 缩略词表 | 第106-108页 |
致谢 | 第108-109页 |
攻读学位期间发表的学术论文目录 | 第109-110页 |
参加的科研项目 | 第110页 |