可扩展的贝叶斯学习方法建模与推理
摘要 | 第3-4页 |
abstract | 第4-5页 |
主要符号对照表 | 第9-10页 |
第1章 引言 | 第10-15页 |
1.1 研究背景 | 第10-14页 |
1.1.1 贝叶斯学习方法 | 第10-11页 |
1.1.2 关系数据与隐式特征 | 第11-13页 |
1.1.3 大数据时代的贝叶斯推理 | 第13-14页 |
1.2 研究内容与主要贡献 | 第14-15页 |
第2章 从最优模型到最优分布 | 第15-32页 |
2.1 正则风险最小化 | 第15-17页 |
2.2 贝叶斯分析 | 第17-21页 |
2.2.1 代先验与代似然 | 第18-19页 |
2.2.2 从正则风险最小化到最大后验估计 | 第19页 |
2.2.3 贝叶斯准则的变分优化形式 | 第19-21页 |
2.2.4 从点估计到分布估计 | 第21页 |
2.3 最大熵判别 | 第21-24页 |
2.3.1 间隔与间隔约束 | 第22页 |
2.3.2 支持向量机 | 第22-23页 |
2.3.3 最大熵判别 | 第23-24页 |
2.4 区别与联系 | 第24-26页 |
2.5 学习与推理 | 第26-30页 |
2.5.1 贝叶斯分析 | 第26页 |
2.5.2 蒙特卡洛采样方法 | 第26-27页 |
2.5.3 最大熵判别 | 第27-28页 |
2.5.4 变分近似与平均场假设 | 第28-30页 |
2.5.5 两种方法最优解之间的联系 | 第30页 |
2.6 本章小结 | 第30-32页 |
第3章 支持向量机的贝叶斯模型 | 第32-38页 |
3.1 贝叶斯分析 | 第33-35页 |
3.1.1 数据增广下的采样近似求解 | 第34-35页 |
3.2 最大熵判别 | 第35-36页 |
3.3 本章小结与讨论 | 第36-38页 |
第4章 最大间隔矩阵分解的贝叶斯模型 | 第38-46页 |
4.1 协同过滤问题与矩阵分解 | 第38-39页 |
4.2 最大间隔矩阵分解 | 第39-40页 |
4.3 评分的铰链损失 | 第40-42页 |
4.4 贝叶斯分析 | 第42-44页 |
4.5 最大熵判别 | 第44-45页 |
4.6 本章小结与讨论 | 第45-46页 |
第5章 非参数化贝叶斯方法及非参最大间隔矩阵分解 | 第46-60页 |
5.1 隐式特征模型的模型选择问题 | 第46-47页 |
5.2 印度自助餐过程 | 第47-50页 |
5.2.1 IBP与隐式特征模型的关系 | 第48-49页 |
5.2.2 IBP的吉布斯采样 | 第49-50页 |
5.2.3 IBP的折棰表示 | 第50页 |
5.3 非参最大间隔矩阵分解 | 第50-54页 |
5.3.1 最大熵判别 | 第51-52页 |
5.3.2 贝叶斯分析 | 第52-54页 |
5.4 实验设计 | 第54-55页 |
5.4.1 数据集 | 第54页 |
5.4.2 测试方法 | 第54-55页 |
5.4.3 超参数的选取 | 第55页 |
5.5 实验结果与分析 | 第55-58页 |
5.5.1 预测误差 | 第55-57页 |
5.5.2 隐含因子的个数 | 第57页 |
5.5.3 算法稳定性 | 第57页 |
5.5.4 算法运行时间 | 第57-58页 |
5.6 本章小结与讨论 | 第58-60页 |
第6章 分布式的贝叶斯后验采样算法 | 第60-74页 |
6.1 研究动机与相关工作 | 第60-62页 |
6.2 分布式的贝叶斯后验采样算法 | 第62-66页 |
6.2.1 期望传播算法 | 第63-64页 |
6.2.2 基于矩共享的分布式后验采样算法 | 第64页 |
6.2.3 多维高斯分布族 | 第64-65页 |
6.2.4 算法收敛性 | 第65-66页 |
6.3 实验设计 | 第66-69页 |
6.3.1 贝叶斯逻辑回归 | 第66页 |
6.3.2 数据集 | 第66-67页 |
6.3.3 比较的其他算法 | 第67-68页 |
6.3.4 分布式计算环境 | 第68-69页 |
6.4 实验结果与分析 | 第69-73页 |
6.4.1 算法收敛性 | 第69-70页 |
6.4.2 各算法近似误差的比较 | 第70-72页 |
6.4.3 划分个数对算法性能的影响 | 第72-73页 |
6.5 本章小结 | 第73-74页 |
第7章 总结与展望 | 第74-76页 |
7.1 全文总结 | 第74页 |
7.2 未来工作展望 | 第74-76页 |
参考文献 | 第76-83页 |
致谢 | 第83-85页 |
个人简历、在学期间发表的学术论文与研究成果 | 第85页 |