基于深度学习的用户行为过程预测方法研究与实现
摘要 | 第5-7页 |
ABSTRACT | 第7-8页 |
第一章 绪论 | 第12-20页 |
1.1 研究背景与意义 | 第12-14页 |
1.2 研究现状 | 第14-17页 |
1.2.1 传统方法 | 第14-15页 |
1.2.2 深度学习方法 | 第15-17页 |
1.3 研究内容 | 第17-18页 |
1.4 文章层次结构 | 第18-19页 |
1.5 本章小结 | 第19-20页 |
第二章 相关技术概述 | 第20-30页 |
2.1 分布式表达 | 第20-21页 |
2.2 循环神经网络相关技术 | 第21-24页 |
2.2.1 循环神经网络 | 第21-22页 |
2.2.2 长短期记忆网络 | 第22-23页 |
2.2.3 门控循环单元网络 | 第23-24页 |
2.3 编码器-解码器框架 | 第24-25页 |
2.4 注意力机制 | 第25-26页 |
2.5 损失函数 | 第26-28页 |
2.5.1 均方差损失函数 | 第27页 |
2.5.2 交叉熵损失函数 | 第27-28页 |
2.6 优化算法 | 第28-29页 |
2.6.1 梯度下降法 | 第28-29页 |
2.6.2 Adam | 第29页 |
2.7 本章小结 | 第29-30页 |
第三章 用户行为过程预测方法 | 第30-46页 |
3.1 用户行为过程预测问题定义 | 第30-31页 |
3.2 问题解决方法与总体框架 | 第31-32页 |
3.3 用户行为序列编码方法 | 第32-35页 |
3.3.1 编码方法的选择与原理 | 第32-34页 |
3.3.2 用户行为序列编码方法实现 | 第34-35页 |
3.4 用户行为意图提取方法 | 第35-38页 |
3.4.1 捕捉用户意图的重要性 | 第36页 |
3.4.2 注意力机制提取用户意图原理 | 第36-37页 |
3.4.3 用户行为意图提取方法实现 | 第37-38页 |
3.5 嵌入向量匹配方法 | 第38-40页 |
3.5.1 嵌入向量匹配方法原理 | 第38-40页 |
3.5.2 嵌入向量匹配方法实现 | 第40页 |
3.6 时间迁移学习方法 | 第40-44页 |
3.6.1 数据存在的时效性问题 | 第40-41页 |
3.6.2 机器学习中时效性问题解决方案 | 第41-42页 |
3.6.3 深度学习中时效性问题解决方案 | 第42-43页 |
3.6.4 时间迁移学习方法的实现 | 第43-44页 |
3.7 本章小结 | 第44-46页 |
第四章 数据分析处理与实验设计 | 第46-54页 |
4.1 数据集描述 | 第46-47页 |
4.1.1 电商领域数据集 | 第46-47页 |
4.1.2 娱乐领域数据集 | 第47页 |
4.2 数据预处理 | 第47-50页 |
4.2.1 数据划分与预处理 | 第47-49页 |
4.2.2 数据扩增 | 第49-50页 |
4.3 评估指标 | 第50-51页 |
4.4 实验环境与参数介绍 | 第51-52页 |
4.5 对照实验设计 | 第52页 |
4.6 本章小结 | 第52-54页 |
第五章 实验结果分析 | 第54-68页 |
5.1 功能指标对比分析 | 第54-60页 |
5.1.1 不同网络参数效果对比 | 第54-56页 |
5.1.2 注意力机制效果对比 | 第56页 |
5.1.3 不同编码方法效果对比 | 第56-57页 |
5.1.4 不同解码方法效果对比 | 第57-58页 |
5.1.5 时间迁移学习效果对比 | 第58-59页 |
5.1.6 引入动态属性效果对比 | 第59页 |
5.1.7 其它基线方法效果对比 | 第59-60页 |
5.2 性能指标对比分析 | 第60-65页 |
5.2.1 不同网络参数性能对比 | 第60-62页 |
5.2.2 注意力机制性能对比 | 第62页 |
5.2.3 不同编码方法性能对比 | 第62-63页 |
5.2.4 不同解码方法性能对比 | 第63-64页 |
5.2.5 时间迁移学习性能对比 | 第64页 |
5.2.6 引入动态属性性能对比 | 第64-65页 |
5.3 可视化 | 第65-67页 |
5.4 本章小结 | 第67-68页 |
第六章 总结和展望 | 第68-72页 |
6.1 工作总结 | 第68-69页 |
6.2 展望 | 第69-72页 |
参考文献 | 第72-76页 |
致谢 | 第76-78页 |
作者攻读学位期间发表的学术论文目录 | 第78页 |