| 摘要 | 第5-6页 |
| Abstract | 第6-7页 |
| 第一章 绪论 | 第14-20页 |
| 1.1 研究背景与意义 | 第14-15页 |
| 1.2 国内外研究现状 | 第15-17页 |
| 1.3 研究内容与创新点 | 第17-18页 |
| 1.4 论文结构 | 第18-20页 |
| 第二章 张量分解算法与深度学习理论介绍 | 第20-24页 |
| 2.1 张量分解算法 | 第20-22页 |
| 2.1.1 CANDECOMP/PARAFAC分解算法 | 第21页 |
| 2.1.2 Tucker分解算法 | 第21-22页 |
| 2.2 深度学习网络 | 第22-23页 |
| 2.3 本章小结 | 第23-24页 |
| 第三章 张量分解改进算法与深度学习网络的设计 | 第24-45页 |
| 3.1 张量分解改进算法 | 第24-27页 |
| 3.1.1 PARAFAC2分解算法 | 第24-25页 |
| 3.1.2 PARATuc张量分解改进算法 | 第25-26页 |
| 3.1.3 优化算法 | 第26-27页 |
| 3.2 张量分解算法的有效性验证 | 第27-30页 |
| 3.2.1 数据集介绍 | 第27-28页 |
| 3.2.2 多种张量分解算法的对比 | 第28页 |
| 3.2.3 不同优化算法在不同学习速率的对比 | 第28-30页 |
| 3.3 深度学习网络设计 | 第30-35页 |
| 3.3.1 网络架构介绍 | 第31-32页 |
| 3.3.2 深度学习数据预处理部分 | 第32-33页 |
| 3.3.3 神经网络部分 | 第33-34页 |
| 3.3.4 用户特征和电影特征的联合训练 | 第34-35页 |
| 3.3.5 模型优化部分 | 第35页 |
| 3.4 深度学习网络的实验环境以及超参数调节 | 第35-44页 |
| 3.4.1 评价指数介绍 | 第36页 |
| 3.4.2 实验数据集的预处理 | 第36-39页 |
| 3.4.3 神经网络的层数和神经元个数设置 | 第39-41页 |
| 3.4.4 激活函数的选择和学习优化算法的超参数设置 | 第41-44页 |
| 3.5 本章小结 | 第44-45页 |
| 第四章 基于张量分解和深度学习混合推荐算法 | 第45-54页 |
| 4.1 混合推荐系统相关研究介绍 | 第46页 |
| 4.2 张量分解与深度学习混合机制 | 第46-48页 |
| 4.2.1 加权混合机制 | 第47页 |
| 4.2.2 线性回归混合机制 | 第47-48页 |
| 4.2.3 逻辑斯蒂回归混合机制 | 第48页 |
| 4.3 实验结果与分析 | 第48-52页 |
| 4.3.1 实验评价指标介绍 | 第48-49页 |
| 4.3.2 多种混合机制在数据集中的实验结果 | 第49-50页 |
| 4.3.3 BRATDDL推荐算法与单一推荐算法的对比实验 | 第50页 |
| 4.3.4 BRATDDL混合推荐算法与传统推荐算法的对比实验 | 第50-51页 |
| 4.3.5 在不同数据集以及不同稀疏性数据的实验 | 第51-52页 |
| 4.4 BRATDDL混合推荐算法的优势 | 第52-53页 |
| 4.5 本章小结 | 第53-54页 |
| 第五章 BRATDDL混合推荐算法的应用及研究 | 第54-66页 |
| 5.1 WEB通信协议架构的搭建 | 第54-57页 |
| 5.1.1 Linux平台的服务器端的配置 | 第55页 |
| 5.1.2 Windows平台的客户端配置 | 第55页 |
| 5.1.3 推荐系统服务线上测试结果 | 第55-57页 |
| 5.2 科学健康运动推荐服务介绍 | 第57-65页 |
| 5.2.1 数据的采集与预处理 | 第58-61页 |
| 5.2.2 模型的训练与测试 | 第61-63页 |
| 5.2.3 数据集的结构与系统展示 | 第63-65页 |
| 5.3 本章小结 | 第65-66页 |
| 第六章 总结与展望 | 第66-69页 |
| 6.1 工作总结 | 第66-67页 |
| 6.2 未来工作展望 | 第67-69页 |
| 参考文献 | 第69-74页 |
| 致谢 | 第74-75页 |
| 作者简介及读研期间主要科研成果 | 第75页 |