基于主题的图像描述生成技术研究与应用
| 摘要 | 第5-6页 |
| ABSTRACT | 第6-7页 |
| 第一章 绪论 | 第10-21页 |
| 1.1 研究背景与意义 | 第10-12页 |
| 1.2 图像描述生成的研究现状 | 第12-18页 |
| 1.2.1 基于视觉空间检索的图像描述生成 | 第12-13页 |
| 1.2.2 基于多模态空间检索的图像描述生成 | 第13-14页 |
| 1.2.3 基于编码器-解码器的图像描述生成 | 第14-17页 |
| 1.2.4 多句子描述生成模型 | 第17-18页 |
| 1.3 研究内容及章节安排 | 第18-21页 |
| 1.3.1 本文的研究内容 | 第18-19页 |
| 1.3.2 本文的章节安排 | 第19-21页 |
| 第二章 基础知识 | 第21-28页 |
| 2.1 图像特征表示 | 第21-24页 |
| 2.1.1 视觉词袋模型 | 第21-22页 |
| 2.1.2 卷积神经网络 | 第22-24页 |
| 2.2 文本特征表示 | 第24-26页 |
| 2.2.1 词袋模型 | 第24页 |
| 2.2.2 循环神经网络 | 第24-26页 |
| 2.3 主题模型 | 第26-28页 |
| 第三章 基于主题的图像描述生成模型 | 第28-35页 |
| 3.1 问题形式化 | 第28-30页 |
| 3.2 主题抽取与表示 | 第30-31页 |
| 3.2.1 主题抽取 | 第30-31页 |
| 3.2.2 主题表示 | 第31页 |
| 3.3 基于图像的主题预测 | 第31-32页 |
| 3.3.1 图像主题分布获取 | 第31-32页 |
| 3.3.2 主题预测 | 第32页 |
| 3.4 图像编码器 | 第32-33页 |
| 3.5 融入主题监督的自然语言生成模型 | 第33-35页 |
| 第四章 实验与分析 | 第35-49页 |
| 4.1 实验设置 | 第35-36页 |
| 4.1.1 实验数据集 | 第35页 |
| 4.1.2 主题模型训练 | 第35-36页 |
| 4.2 评估指标 | 第36-40页 |
| 4.2.1 主题预测评估 | 第36页 |
| 4.2.2 生成评估 | 第36-39页 |
| 4.2.3 主题一致性评估 | 第39-40页 |
| 4.3 基于文本主题模型的图像描述生成实验 | 第40-45页 |
| 4.3.1 主题分类评估 | 第40-41页 |
| 4.3.2 生成评估 | 第41-42页 |
| 4.3.3 主题一致性评估 | 第42-43页 |
| 4.3.4 定性分析 | 第43页 |
| 4.3.5 主题引导的生成过程 | 第43-44页 |
| 4.3.6 超参数K对实验结果的影响 | 第44-45页 |
| 4.4 基于多模态主题模型的图像描述生成实验 | 第45-47页 |
| 4.4.1 实验设置 | 第45-46页 |
| 4.4.2 主题分类评估 | 第46页 |
| 4.4.3 生成评估 | 第46-47页 |
| 4.4.4 主题一致性评估 | 第47页 |
| 4.5 本章小结 | 第47-49页 |
| 第五章 图像实时描述生成应用设计与实现 | 第49-53页 |
| 5.1 系统结构 | 第49-50页 |
| 5.2 模块描述 | 第50-51页 |
| 5.2.1 视频获取模块 | 第50页 |
| 5.2.2 视觉特征抽取模块 | 第50-51页 |
| 5.2.3 文本描述生成模块 | 第51页 |
| 5.2.4 显示模块 | 第51页 |
| 5.3 功能演示 | 第51-53页 |
| 第六章 结论和展望 | 第53-55页 |
| 6.1 本文工作结论 | 第53-54页 |
| 6.2 未来工作展望 | 第54-55页 |
| 参考文献 | 第55-59页 |
| 致谢 | 第59-60页 |
| 攻读学位期间发表的学术论文目录 | 第60页 |