摘要 | 第4-6页 |
ABSTRACT | 第6-8页 |
第一章 绪论 | 第13-31页 |
1.1 研究背景与意义 | 第13-15页 |
1.2 国内外研究现状及分析 | 第15-22页 |
1.3 基于深度学习的图像描述算法理论基础 | 第22-27页 |
1.3.1 卷积神经网络 | 第22-23页 |
1.3.2 递归神经网络 | 第23-25页 |
1.3.3 强化学习 | 第25-27页 |
1.4 本文的工作与创新 | 第27-29页 |
1.5 本文的组织结构 | 第29-30页 |
1.6 本章小结 | 第30-31页 |
第二章 基于多注意力机制和并行堆叠长短时记忆网络的图像描述模型 | 第31-57页 |
2.1 引言 | 第31-36页 |
2.2 算法描述 | 第36-44页 |
2.2.1 模型的总体结构 | 第36-39页 |
2.2.2 输入阶段注意力机制 | 第39页 |
2.2.3 LSTM和注意力模型的结合机制 | 第39-40页 |
2.2.4 图像-文本注意力机制 | 第40-41页 |
2.2.5 输出阶段注意力机制 | 第41-42页 |
2.2.6 并行堆叠LSTM | 第42-44页 |
2.2.7 损失函数 | 第44页 |
2.3 实验 | 第44-56页 |
2.3.1 实现细节 | 第44-45页 |
2.3.2 数据集 | 第45-46页 |
2.3.3 数据预处理 | 第46-47页 |
2.3.4 评价标准 | 第47-48页 |
2.3.5 训练细节 | 第48-49页 |
2.3.6 实验结果 | 第49-55页 |
2.3.7 质量分析 | 第55-56页 |
2.4 本章小结 | 第56-57页 |
第三章 基于字典控制门和自适应自监督增强学习的图像描述模型 | 第57-78页 |
3.1 引言 | 第57-61页 |
3.2 算法描述 | 第61-70页 |
3.2.1 模型总体框架 | 第61-62页 |
3.2.2 字典门控制模型Word-Gate | 第62-66页 |
3.2.3 自适应自监督增强学习Adaptive-SCST模型 | 第66-70页 |
3.3 实验 | 第70-77页 |
3.3.1 数据集 | 第70-71页 |
3.3.2 实现细节 | 第71页 |
3.3.3 实验结果 | 第71-76页 |
3.3.4 可视化分析 | 第76-77页 |
3.4 本章小结 | 第77-78页 |
第四章 基于堆叠注意力机制和多层级监督的图像描述模型 | 第78-98页 |
4.1 引言 | 第78-81页 |
4.2 算法描述 | 第81-91页 |
4.2.1 编码器与编码器 | 第83-84页 |
4.2.2 嵌入模块 | 第84-86页 |
4.2.3 图像组合 | 第86页 |
4.2.4 注意力机制 | 第86-88页 |
4.2.5 多层级监督训练 | 第88-89页 |
4.2.6 模型训练 | 第89-90页 |
4.2.7 模型推理 | 第90-91页 |
4.3 实验 | 第91-97页 |
4.3.1 数据集 | 第91页 |
4.3.2 评估指标 | 第91-92页 |
4.3.3 训练细节 | 第92页 |
4.3.4 实验结果 | 第92-95页 |
4.3.5 质量分析 | 第95-97页 |
4.4 本章小结 | 第97-98页 |
第五章 工作总结与展望 | 第98-102页 |
5.1 工作总结 | 第98-100页 |
5.2 未来工作展望 | 第100-102页 |
参考文献 | 第102-111页 |
致谢 | 第111-112页 |
攻读博士学位期间的成果 | 第112-113页 |
攻读博士学位期间参与的科研项目 | 第113页 |