基于深度学习的图像及视频描述方法研究
中文摘要 | 第10-11页 |
ABSTRACT | 第11-12页 |
第一章 绪论 | 第13-19页 |
1.1 本文的研究背景、目的和意义 | 第13-14页 |
1.2 国内外研究现状 | 第14-16页 |
1.2.1 图像特征提取研究现状 | 第14-15页 |
1.2.2 语言处理模型研究现状 | 第15页 |
1.2.3 深度学习研究现状 | 第15页 |
1.2.4 迁移学习研究现状 | 第15-16页 |
1.2.5 图像描述与视频描述研究现状 | 第16页 |
1.3 本文主要研究内容 | 第16-17页 |
1.4 结构安排 | 第17-19页 |
第二章 图像特征提取 | 第19-27页 |
2.1 图像特征分类 | 第19-20页 |
2.1.1 颜色特征 | 第19页 |
2.1.2 纹理特征 | 第19页 |
2.1.3 形状特征 | 第19-20页 |
2.1.4 空间关系特征 | 第20页 |
2.1.5 图像语义特征 | 第20页 |
2.2 图像特征提取 | 第20-26页 |
2.2.1 卷积神经网络基本原理 | 第21-23页 |
2.2.2 VGGNet网络模型 | 第23-25页 |
2.2.3 全卷积神经网络 | 第25-26页 |
2.3 本章小结 | 第26-27页 |
第三章 语言模型的构建 | 第27-39页 |
3.1 词向量模型构建 | 第27-32页 |
3.1.1 词向量简介 | 第27页 |
3.1.2 词表示方法 | 第27-28页 |
3.1.3 构建词向量生成模型 | 第28-32页 |
3.2 语言模型 | 第32-37页 |
3.2.1 循环神经网络 | 第32-33页 |
3.2.2 长短时记忆神经网络 | 第33-37页 |
3.3 本章小结 | 第37-39页 |
第四章 基于连续Skip-gram的图像描述方法 | 第39-45页 |
4.1 区域卷积神经网络 | 第39-40页 |
4.2 连续Skip-gram模型 | 第40-41页 |
4.2.1 连续Skip-gram模型结构 | 第40-41页 |
4.3 系统框架 | 第41-42页 |
4.4 实验及结果分析 | 第42-44页 |
4.4.1 实验参数设置 | 第42页 |
4.4.2 实验结果及分析 | 第42-44页 |
4.5 本章小结 | 第44-45页 |
第五章 基于深度迁移学习的视频描述方法 | 第45-53页 |
5.1 视频表示 | 第45-46页 |
5.2 融合语义特征 | 第46-49页 |
5.2.1 图像语义特征 | 第46-47页 |
5.2.2 帧流语义特征 | 第47-49页 |
5.3 视频描述框架 | 第49-50页 |
5.4 实验及结果分析 | 第50-52页 |
5.4.1 数据集 | 第50页 |
5.4.2 评价指标 | 第50-51页 |
5.4.3 实验设置 | 第51页 |
5.4.4 结果分析 | 第51-52页 |
5.5 本章小结 | 第52-53页 |
第六章 总结与展望 | 第53-55页 |
6.1 工作总结 | 第53页 |
6.2 工作展望 | 第53-55页 |
参考文献 | 第55-61页 |
攻读学位期间取得的研究成果 | 第61-62页 |
致谢 | 第62-63页 |
个人简况及联系方式 | 第63-64页 |