摘要 | 第3-4页 |
Abstract | 第4-5页 |
第一章 绪论 | 第9-15页 |
1.1 研究背景与意义 | 第9-11页 |
1.2 国内外研究现状 | 第11-13页 |
1.2.1 推荐系统研究现状 | 第11-12页 |
1.2.2 深度学习研究现状 | 第12-13页 |
1.3 本文主要工作 | 第13-14页 |
1.4 本文结构安排 | 第14-15页 |
第二章 相关工作 | 第15-33页 |
2.1 深度学习模型 | 第15-19页 |
2.1.1 多层感知机 | 第15-16页 |
2.1.2 自动编码器 | 第16-17页 |
2.1.3 受限玻尔兹曼机 | 第17-18页 |
2.1.4 卷积神经网络 | 第18-19页 |
2.1.5 循环神经网络 | 第19页 |
2.2 词的分布表示相关技术 | 第19-26页 |
2.2.1 语言模型介绍 | 第20页 |
2.2.2 神经网络语言模型 | 第20-22页 |
2.2.3 循环神经网络语言模型 | 第22-23页 |
2.2.4 C&W模型 | 第23-24页 |
2.2.5 CBOW模型和Skip-gram模型 | 第24-26页 |
2.3 基于深度学习的推荐系统模型 | 第26-33页 |
2.3.1 基于多层感知机的推荐系统 | 第26-28页 |
2.3.2 基于自动编码器的推荐系统 | 第28-29页 |
2.3.3 基于受限玻尔兹曼机的推荐系统 | 第29-30页 |
2.3.4 基于卷积神经网络的推荐系统 | 第30-31页 |
2.3.5 基于循环神经网络的推荐系统 | 第31-33页 |
第三章 协同学习单词和字符表示 | 第33-49页 |
3.1 引言 | 第33-35页 |
3.2 相关工作 | 第35-37页 |
3.2.1 符号定义 | 第35页 |
3.2.2 CWE模型 | 第35-36页 |
3.2.3 SCWE模型 | 第36-37页 |
3.3 BCW和SGC模型 | 第37-39页 |
3.3.1 BCW模型 | 第38-39页 |
3.3.2 SGC模型 | 第39页 |
3.4 多原型模型 | 第39-42页 |
3.4.1 基于位置的多原型模型 | 第40页 |
3.4.2 基于聚类的多原型模型 | 第40-42页 |
3.5 非组合语义词汇的选择 | 第42页 |
3.6 计算复杂度 | 第42-43页 |
3.7 实验和分析 | 第43-48页 |
3.7.1 数据集和实验设置 | 第43页 |
3.7.2 词相似任务 | 第43-44页 |
3.7.3 类比推理 | 第44-45页 |
3.7.4 语料领域的影响 | 第45页 |
3.7.5 分类任务 | 第45-46页 |
3.7.6 推荐任务 | 第46-47页 |
3.7.7 多原型字符评估 | 第47-48页 |
3.8 本章小结 | 第48-49页 |
第四章 基于监督卷积矩阵分解的文档推荐 | 第49-65页 |
4.1 引言 | 第49-50页 |
4.2 相关工作 | 第50-52页 |
4.2.1 矩阵分解 | 第50-51页 |
4.2.2 卷积矩阵分解模型 | 第51-52页 |
4.3 监督卷积矩阵分解 | 第52-58页 |
4.3.1 Super-ConvMF中的监督卷积网络 | 第52-54页 |
4.3.2 Super-ConvMF的贝叶斯生成过程 | 第54-56页 |
4.3.3 优化策略 | 第56-57页 |
4.3.4 时间复杂度 | 第57-58页 |
4.4 实验结果 | 第58-64页 |
4.4.1 数据集 | 第58页 |
4.4.2 评估准则 | 第58-59页 |
4.4.3 对比算法和实验设置 | 第59-60页 |
4.4.4 三种监督卷积网络的多标签分类结果 | 第60页 |
4.4.5 三个数据集上的不同稀疏度下的推荐效果评估 | 第60-62页 |
4.4.6 预训练单词向量的影响 | 第62-63页 |
4.4.7 参数分析 | 第63-64页 |
4.5 本章小结 | 第64-65页 |
第五章 总结和展望 | 第65-67页 |
5.1 总结 | 第65-66页 |
5.2 展望 | 第66-67页 |
参考文献 | 第67-74页 |
附录 | 第74-76页 |
附录A 图索引 | 第74-75页 |
附录B 表索引 | 第75-76页 |
Appendix | 第76-78页 |
Appendix A Figure Index | 第76-77页 |
Appendix B Table Index | 第77-78页 |
致谢 | 第78-79页 |
攻读硕士学位期间发表的论文 | 第79页 |