摘要 | 第4-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第16-24页 |
1.1 研究背景 | 第16-17页 |
1.2 研究问题 | 第17-20页 |
1.3 本文的研究内容和贡献 | 第20-22页 |
1.4 本文的组织结构 | 第22-24页 |
第2章 相关研究工作综述 | 第24-40页 |
2.1 序列特征学习 | 第24-28页 |
2.1.1 循环神经网络 | 第24-25页 |
2.1.2 长短时记忆模型 | 第25-27页 |
2.1.3 Gated Recurrent Unit | 第27-28页 |
2.2 视觉特征学习 | 第28-31页 |
2.2.1 深度卷积神经网络 | 第28-29页 |
2.2.2 AlexNet | 第29-30页 |
2.2.3 VGGNet | 第30-31页 |
2.3 记忆网络 | 第31-32页 |
2.4 生成对抗网络 | 第32-33页 |
2.5 推荐算法 | 第33-37页 |
2.5.1 协同过滤 | 第34-36页 |
2.5.2 矩阵分解 | 第36-37页 |
2.5.3 马尔科夫模型 | 第37页 |
2.6 对话模型 | 第37-40页 |
2.6.1 垂直领域对话 | 第38页 |
2.6.2 自然对话生成 | 第38-39页 |
2.6.3 跨模态对话 | 第39-40页 |
第3章 基于序列数据的组合架构深度学习算法 | 第40-53页 |
3.1 引言 | 第40-43页 |
3.2 算法 | 第43-48页 |
3.2.1 问题定义 | 第43页 |
3.2.2 局部长短时记忆模型 | 第43-45页 |
3.2.3 全局长短时记忆模型 | 第45-46页 |
3.2.4 组合长短时记忆模型 | 第46-47页 |
3.2.5 模型训练 | 第47-48页 |
3.3 实验 | 第48-51页 |
3.3.1 实验数据集 | 第48页 |
3.3.2 参数设定 | 第48页 |
3.3.3 对比算法 | 第48-49页 |
3.3.4 评价标准 | 第49页 |
3.3.5 结果展示及分析 | 第49-51页 |
3.4 结论 | 第51-53页 |
第4章 基于时空嵌入的深度预测模型 | 第53-83页 |
4.1 引言 | 第53-57页 |
4.2 相关工作 | 第57-58页 |
4.2.1 地点预测 | 第57-58页 |
4.2.2 深度模型 | 第58页 |
4.2.3 生成对抗网络 | 第58页 |
4.3 算法 | 第58-69页 |
4.3.1 任务描述 | 第59-61页 |
4.3.2 时空嵌入的长短时记忆模型 | 第61-63页 |
4.3.3 基于时空嵌入的生成对抗网络模型 | 第63-67页 |
4.3.4 基于时空嵌入的层次长短时记忆模型 | 第67-69页 |
4.4 实验 | 第69-82页 |
4.4.1 实验数据集 | 第69-70页 |
4.4.2 参数设定 | 第70页 |
4.4.3 对比算法 | 第70-71页 |
4.4.4 验证指标 | 第71-72页 |
4.4.5 实验结果 | 第72-82页 |
4.5 结论 | 第82-83页 |
第5章 基于多轮注意力机制的深度记忆网络模型 | 第83-98页 |
5.1 引言 | 第83-86页 |
5.2 相关工作 | 第86-87页 |
5.2.1 计算机视觉与自然语言处理 | 第86页 |
5.2.2 对话模型和聊天机器人 | 第86页 |
5.2.3 视觉对话 | 第86-87页 |
5.3 算法 | 第87-92页 |
5.3.1 问题定义 | 第87-88页 |
5.3.2 多轮注意力记忆网络编码器 | 第88-90页 |
5.3.3 生成式解码器和判别式解码器 | 第90-92页 |
5.4 实验 | 第92-97页 |
5.4.1 实验数据集 | 第92页 |
5.4.2 参数设定 | 第92页 |
5.4.3 对比算法 | 第92-94页 |
5.4.4 评价标准 | 第94-95页 |
5.4.5 实验结果 | 第95-97页 |
5.5 结论 | 第97-98页 |
第6章 总结与展望 | 第98-101页 |
6.1 本文工作总结 | 第98-100页 |
6.2 工作展望 | 第100-101页 |
参考文献 | 第101-122页 |
攻读博士学位期间主要的研究成果 | 第122-124页 |
致谢 | 第124-125页 |