摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
第一章 绪论 | 第12-20页 |
1.1 研究背景和意义 | 第12-13页 |
1.2 国内外研究现状 | 第13-15页 |
1.2.1 国外研究现状 | 第13-14页 |
1.2.2 国内研究现状 | 第14-15页 |
1.3 研究内容 | 第15-17页 |
1.3.1 基于两步联合注意力网络的视觉问答系统 | 第15-16页 |
1.3.2 基于知识表示的视觉问答系统 | 第16-17页 |
1.4 本文的贡献和面临的挑战 | 第17-18页 |
1.4.1 本文的贡献 | 第17-18页 |
1.4.2 面临的挑战 | 第18页 |
1.5 论文组织结构 | 第18-20页 |
第二章 相关研究综述 | 第20-30页 |
2.1 基于两步联合注意力网络的视觉问答系统研究综述 | 第20-25页 |
2.1.1 图片特征抽取 | 第20-22页 |
2.1.2 问题特征提取 | 第22-24页 |
2.1.3 注意力机制 | 第24-25页 |
2.2 基于知识表示的视觉问答系统研究综述 | 第25-28页 |
2.2.1 知识表示 | 第26页 |
2.2.2 实体表示 | 第26-27页 |
2.2.3 关系抽取 | 第27-28页 |
2.3 本章小结 | 第28-30页 |
第三章 基于两步联合注意力网络的视觉问答系统 | 第30-42页 |
3.1 相关工作 | 第30-31页 |
3.2 模型总体框架 | 第31-32页 |
3.3 图片特征提取 | 第32-33页 |
3.4 问题特征提取 | 第33页 |
3.5 两步联合注意力模型 | 第33-35页 |
3.6 答案预测 | 第35页 |
3.7 实验结果和分析 | 第35-40页 |
3.7.1 数据集 | 第35-36页 |
3.7.2 实验配置 | 第36页 |
3.7.3 可视化分析 | 第36-39页 |
3.7.4 模型对比 | 第39-40页 |
3.8 本章小结 | 第40-42页 |
第四章 基于知识表示的视觉问答系统 | 第42-52页 |
4.1 相关工作 | 第42-43页 |
4.2 模型总体框架 | 第43页 |
4.3 知识表示 | 第43-44页 |
4.4 关系表示 | 第44-45页 |
4.5 实体表示 | 第45-46页 |
4.6 链接知识库 | 第46-47页 |
4.6.1 实体链接 | 第46-47页 |
4.6.2 关系链接 | 第47页 |
4.6.3 答案生成 | 第47页 |
4.7 实验结果和分析 | 第47-51页 |
4.7.1 数据集 | 第47-48页 |
4.7.2 实验配置 | 第48页 |
4.7.3 实验结果分析 | 第48-50页 |
4.7.4 错误分析 | 第50-51页 |
4.8 本章小结 | 第51-52页 |
第五章 系统实现 | 第52-64页 |
5.1 整体框架与模块需求 | 第52-54页 |
5.1.1 整体框架 | 第52-53页 |
5.1.2 模块需求 | 第53-54页 |
5.2 详细设计 | 第54-63页 |
5.2.1 数据集 | 第54-55页 |
5.2.2 算法 | 第55-56页 |
5.2.3 后台算法封装和APP设计实现 | 第56-63页 |
5.2.4 开发平台 | 第63页 |
5.3 本章小结 | 第63-64页 |
第六章 总结与展望 | 第64-66页 |
参考文献 | 第66-72页 |
致谢 | 第72-74页 |
攻读学位期间取得的研究成果 | 第74页 |