基于深度学习的图像描述方法研究
摘要 | 第4-5页 |
abstract | 第5-6页 |
第一章 绪论 | 第9-16页 |
1.1 课题研究背景及意义 | 第9-11页 |
1.2 国内外研究现状 | 第11-14页 |
1.2.1 基于模板的方法 | 第11-12页 |
1.2.2 基于检索的方法 | 第12页 |
1.2.3 基于神经网络的方法 | 第12-14页 |
1.3 论文的主要工作 | 第14-15页 |
1.4 本文组织结构 | 第15-16页 |
第二章 相关技术与理论 | 第16-29页 |
2.1 卷积神经网络 | 第16-20页 |
2.1.1 卷积层 | 第17-19页 |
2.1.2 池化层 | 第19-20页 |
2.1.3 全连接层 | 第20页 |
2.2 激活函数 | 第20-22页 |
2.3 循环神经网络 | 第22-26页 |
2.3.1 LSTM | 第23-25页 |
2.3.2 GRU | 第25-26页 |
2.4 优化器 | 第26-28页 |
2.5 本章小结 | 第28-29页 |
第三章 基于多模态融合的图像描述方法 | 第29-49页 |
3.1 图像描述模型分析 | 第29-33页 |
3.2 模型介绍 | 第33-39页 |
3.2.1 图像属性信息提取 | 第34-35页 |
3.2.2 序列特征提取 | 第35-37页 |
3.2.3 循环神经网络 | 第37-38页 |
3.2.4 损失函数 | 第38-39页 |
3.3 实验分析 | 第39-48页 |
3.3.1 数据集介绍 | 第39-40页 |
3.3.2 实验环境及训练细节 | 第40页 |
3.3.3 评价指标 | 第40-43页 |
3.3.4 实验结果与分析 | 第43-48页 |
3.4 本章小结 | 第48-49页 |
第四章 基于分叉卷积结构的密集描述模型 | 第49-73页 |
4.1 目标检测模型 | 第49-51页 |
4.1.1 Two-stage目标检测模型 | 第49-50页 |
4.1.2 One-stage目标检测模型 | 第50-51页 |
4.2 密集描述模型分析 | 第51-52页 |
4.3 改进的密集描述模型 | 第52-60页 |
4.3.1 主干结构 | 第55页 |
4.3.2 分类和回归子网络 | 第55-56页 |
4.3.3 候选框的选择 | 第56-57页 |
4.3.4 候选框回归 | 第57-58页 |
4.3.5 分叉卷积结构 | 第58页 |
4.3.6 图像属性信息提取 | 第58-59页 |
4.3.7 语言模型 | 第59-60页 |
4.4 损失函数 | 第60-61页 |
4.5 实验分析 | 第61-72页 |
4.5.1 实验数据和评价指标 | 第61-65页 |
4.5.2 模型训练细节 | 第65页 |
4.5.3 数据增强与模型推理 | 第65页 |
4.5.4 数据增强和交替固定的有效性 | 第65-66页 |
4.5.5 目标检测端分析 | 第66-68页 |
4.5.6 语言端分析 | 第68-69页 |
4.5.7 模型超参数调整 | 第69-70页 |
4.5.8 基于密集描述的图像检索 | 第70-72页 |
4.6 本章小结 | 第72-73页 |
第五章 总结与展望 | 第73-75页 |
5.1 总结 | 第73-74页 |
5.2 展望 | 第74-75页 |
参考文献 | 第75-82页 |
发表论文和科研情况说明 | 第82-83页 |
致谢 | 第83页 |