| 摘要 | 第5-6页 |
| ABSTRACT | 第6-7页 |
| 符号对照表 | 第11-12页 |
| 缩略语对照表 | 第12-15页 |
| 第一章 绪论 | 第15-23页 |
| 1.1 研究背景 | 第15页 |
| 1.2 贝叶斯网络理论基础 | 第15-19页 |
| 1.2.1 概率论基础 | 第15-16页 |
| 1.2.2 贝叶斯网络 | 第16-19页 |
| 1.3 贝叶斯网络研究现状 | 第19-21页 |
| 1.4 本文章节安排 | 第21-23页 |
| 第二章 贝叶斯网络参数学习 | 第23-39页 |
| 2.1 最大似然估计 | 第23-25页 |
| 2.2 经典EM算法 | 第25-27页 |
| 2.3 带权修补EM算法的应用 | 第27-30页 |
| 2.4 结合Gibbs抽样的带权修补EM算法 | 第30-32页 |
| 2.5 算法性能分析 | 第32-37页 |
| 2.6 本章小结 | 第37-39页 |
| 第三章 Gibbs抽样参数学习算法的应用与改进 | 第39-53页 |
| 3.1 马尔可夫链蒙特卡洛方法 | 第39-40页 |
| 3.2 马尔可夫链 | 第40-41页 |
| 3.3 Gibbs抽样在贝叶斯网络参数学习中的应用与改进 | 第41-48页 |
| 3.3.1 马尔可夫毯 | 第41-42页 |
| 3.3.2 Gibbs抽样 | 第42-44页 |
| 3.3.3 经典Gibbs抽样在贝叶斯网络学习中的应用 | 第44-46页 |
| 3.3.4 Gibbs抽样的改进 | 第46-48页 |
| 3.4 算法性能分析 | 第48-51页 |
| 3.5 本章小结 | 第51-53页 |
| 第四章 融合专家先验知识的贝叶斯网络参数学习方法 | 第53-63页 |
| 4.1 技术背景 | 第53页 |
| 4.2 融合专家先验知识的贝叶斯网络参数学习方法 | 第53-57页 |
| 4.3 学习精度对比实验 | 第57-61页 |
| 4.4 本章小结 | 第61-63页 |
| 第五章 贝叶斯网络参数学习库的实现 | 第63-79页 |
| 5.1 BPLlib简介 | 第63-64页 |
| 5.2 实现环境 | 第64-65页 |
| 5.3 基础组件 | 第65-69页 |
| 5.3.1 贝叶斯网络结构表示 | 第65-66页 |
| 5.3.2 贝叶斯网络条件概率表示 | 第66-68页 |
| 5.3.3 样本数据表示 | 第68-69页 |
| 5.4 核心算法 | 第69-72页 |
| 5.4.1 经典EM及其改进算法 | 第69-70页 |
| 5.4.2 经典Gibbs抽样应用及改进算法 | 第70-72页 |
| 5.5 测试组件 | 第72-74页 |
| 5.6 BPLlib实验与结果分析 | 第74-78页 |
| 5.6.1 可视化贝叶斯网学习软件GeNIe | 第74-75页 |
| 5.6.2 改进的PR-GSEM算法实验 | 第75-76页 |
| 5.6.3 改进的W-Gibbs抽样算法实验 | 第76页 |
| 5.6.4 改进的参数学习算法评估 | 第76-78页 |
| 5.7 本章小结 | 第78-79页 |
| 第六章 总结与展望 | 第79-81页 |
| 参考文献 | 第81-85页 |
| 致谢 | 第85-87页 |
| 作者简介 | 第87-88页 |