面向图文检索的多模态学习算法研究
摘要 | 第4-6页 |
ABSTRACT | 第6-7页 |
第一章 绪论 | 第10-16页 |
1.1 研究背景及意义 | 第10-12页 |
1.2 研究现状 | 第12-13页 |
1.3 论文主要内容和组织结构 | 第13-16页 |
第二章 模型背景 | 第16-34页 |
2.1 受限玻尔兹曼机模型 | 第16-21页 |
2.1.1 受限玻尔兹曼机 | 第16-17页 |
2.1.2 对比散度算法 | 第17-20页 |
2.1.3 重复软最大化模型 | 第20-21页 |
2.1.4 高斯受限玻尔兹曼机 | 第21页 |
2.2 神经网络模型 | 第21-26页 |
2.2.1 卷积神经网络 | 第21-24页 |
2.2.2 区间卷积神经网络 | 第24-25页 |
2.2.3 循环神经网络 | 第25-26页 |
2.3 自然语言模型 | 第26-27页 |
2.3.1 词向量 | 第26-27页 |
2.3.2 对数双线性语言模型 | 第27页 |
2.4 多模态深度玻尔兹曼机 | 第27-33页 |
2.4.1 深度信念网与深度玻尔兹曼机的差异 | 第28页 |
2.4.2 模型结构与训练 | 第28-31页 |
2.4.3 信息检索 | 第31-33页 |
2.5 本章小结 | 第33-34页 |
第三章 自然语言处理 | 第34-42页 |
3.1 依赖树递归神经网络 | 第34-36页 |
3.2 双向循环神经网络 | 第36-40页 |
3.3 本章小结 | 第40-42页 |
第四章 多模态模型 | 第42-54页 |
4.1 依赖树递归神经网络多模态模型 | 第42-44页 |
4.2 细粒度多模态模型 | 第44-49页 |
4.2.1 图像细粒度特征 | 第44-45页 |
4.2.2 多模态映射 | 第45-46页 |
4.2.3 Caffe概述 | 第46-47页 |
4.2.4 双向循环神经网络实现 | 第47页 |
4.2.5 多模态模型实现 | 第47-49页 |
4.3 自然语言多模态模型 | 第49-52页 |
4.3.1 多模态对数双线性模型 | 第49-50页 |
4.3.2 信息检索 | 第50-51页 |
4.3.3 文本生成 | 第51-52页 |
4.4 本章小结 | 第52-54页 |
第五章 实验 | 第54-62页 |
5.1 训练 | 第54-56页 |
5.2 模型方法对比 | 第56页 |
5.3 实验结果 | 第56-62页 |
第六章 总结与展望 | 第62-65页 |
6.1 总结 | 第62-63页 |
6.2 展望 | 第63-65页 |
参考文献 | 第65-69页 |
致谢 | 第69页 |