摘要 | 第5-7页 |
Abstract | 第7-9页 |
英文缩略语全称对照及释义 | 第14-16页 |
第一章 绪论 | 第16-32页 |
1.1 研究背景 | 第16-18页 |
1.1.1 机器学习部分概念定义 | 第17-18页 |
1.2 机器学习的主流实现思想与方法概述 | 第18-23页 |
1.2.1 贝叶斯推断 | 第18-19页 |
1.2.2 最近邻分类和回归 | 第19-20页 |
1.2.3 曲面拟合 | 第20-21页 |
1.2.4 信息论方法 | 第21-22页 |
1.2.5 仿生学方法 | 第22页 |
1.2.6 集成学习 | 第22-23页 |
1.3 在线学习的国内外研究现状 | 第23-28页 |
1.3.1 在线学习发展历史 | 第23-25页 |
1.3.2 在线学习研究现状 | 第25-28页 |
1.3.3 竞争学习与在线学习 | 第28页 |
1.4 论文的选题与主要工作 | 第28-32页 |
1.4.1 在线学习中的关键问题 | 第29页 |
1.4.2 论文的选题出发点与创新点 | 第29-30页 |
1.4.3 论文的组织结构 | 第30-32页 |
第二章 竞争学习神经网络的代表性算法简介 | 第32-40页 |
2.1 竞争学习核心思想 | 第32-33页 |
2.2 竞争学习代表性算法 | 第33-36页 |
2.2.1 自组织映射 | 第33-34页 |
2.2.2 增长神经气 | 第34页 |
2.2.3 自组织增量神经网络 | 第34-36页 |
2.3 三种竞争学习算法优缺点比较 | 第36-39页 |
2.3.1 算法特点对比 | 第36-39页 |
2.3.2 特殊分布上GNG的优势 | 第39页 |
2.4 本章小结 | 第39-40页 |
第三章 基于竞争学习的在线非参数回归理论研究与算法设计 | 第40-64页 |
3.1 引言 | 第40-41页 |
3.2 核密度估计与非参数回归简介 | 第41-42页 |
3.2.1 核密度估计 | 第41-42页 |
3.2.2 Nadaraya-Watson估计 | 第42页 |
3.3 基于密度回归思想与竞争学习的回归理论研究与算法框架设计 | 第42-45页 |
3.3.1 问题描述 | 第42页 |
3.3.2 竞争学习神经网络的高斯混合回归方程推导 | 第42-45页 |
3.4 竞争学习密度回归算法设计 | 第45-48页 |
3.4.1 SOM密度回归 | 第45-46页 |
3.4.2 GNG密度回归 | 第46-48页 |
3.4.3 SOINN密度回归 | 第48页 |
3.5 最大似然平滑参数选取 | 第48-53页 |
3.5.1 混合模型的最大似然方程可解性分析 | 第50-51页 |
3.5.2 平滑策略:全局 | 第51-52页 |
3.5.3 平滑策略:局部 | 第52-53页 |
3.6 半监督平滑参数选取 | 第53-54页 |
3.7 对比实验 | 第54-63页 |
3.7.1 人工数据集实验 | 第55页 |
3.7.2 UCI数据集简介 | 第55-57页 |
3.7.3 平滑参数选取 | 第57页 |
3.7.4 竞争学习神经网络训练参数选取 | 第57-60页 |
3.7.5 UCI数据集对比实验结果 | 第60-63页 |
3.8 本章小结 | 第63-64页 |
第四章 竞争学习神经网络的半监督学习算法设计 | 第64-80页 |
4.1 引言 | 第64-65页 |
4.2 流网络算法简介 | 第65页 |
4.2.1 流网络与割树的定义 | 第65页 |
4.2.2 子图聚类 | 第65页 |
4.3 竞争学习的半监督扩展框架研究 | 第65-69页 |
4.3.1 半监督学习优化目标 | 第66页 |
4.3.2 反向竞争学习实现方法 | 第66-69页 |
4.4 基于流网络的快速半监督流形分离算法设计 | 第69-74页 |
4.4.1 问题描述 | 第69-70页 |
4.4.2 基于子图聚类的无监督流形分离 | 第70-71页 |
4.4.3 快速标签传播算法 | 第71-73页 |
4.4.4 完整的半监督SOINN算法 | 第73-74页 |
4.5 对比实验 | 第74-79页 |
4.5.1 人工数据集 | 第74-76页 |
4.5.2 入侵检测数据集简介 | 第76页 |
4.5.3 半监督参数选取 | 第76-77页 |
4.5.4 在入侵检测数据集上的对比结果 | 第77-79页 |
4.6 本章小结 | 第79-80页 |
第五章 基于竞争学习的降维理论研究与算法设计 | 第80-94页 |
5.1 引言 | 第80-81页 |
5.2 闵可夫斯基空间与线性降维简介 | 第81-82页 |
5.2.1 闵可夫斯基空间 | 第81-82页 |
5.2.2 线性降维 | 第82页 |
5.3 竞争学习神经网络非线性降维理论研究与算法框架设计 | 第82-85页 |
5.3.1 问题描述及算法框架 | 第83-84页 |
5.3.2 算法稳定性分析 | 第84-85页 |
5.3.3 基于无监督与半监督SOINN的降维算法 | 第85页 |
5.4 竞争学习神经网络的可视化 | 第85-86页 |
5.5 对比实验 | 第86-93页 |
5.5.1 实验数据集介绍 | 第86-87页 |
5.5.2 无监督降维对比实验 | 第87-88页 |
5.5.3 半监督学习人工数据集对比实验 | 第88-91页 |
5.5.4 入侵检测数据集的可视化 | 第91页 |
5.5.5 入侵检测数据集对比实验 | 第91-93页 |
5.6 本章小结 | 第93-94页 |
第六章 基于竞争学习的交通流子序列聚类与交通流预测 | 第94-108页 |
6.1 引言 | 第94-96页 |
6.1.1 回馈SOINN算法设计的意义 | 第94-95页 |
6.1.2 集成竞争学习回归算法设计的意义 | 第95-96页 |
6.2 时间序列处理方法与Adaboost算法简介 | 第96-97页 |
6.2.1 时间序列预处理 | 第96页 |
6.2.2 Adaboost集成学习 | 第96页 |
6.2.3 回馈自组织映射算法简介 | 第96-97页 |
6.3 回馈SOINN算法设计 | 第97-100页 |
6.4 集成竞争学习回归框架设计 | 第100-101页 |
6.4.1 加权竞争学习回归 | 第101页 |
6.4.2 集成竞争学习回归算法 | 第101页 |
6.5 实验验证 | 第101-107页 |
6.5.1 交通流分段 | 第101-104页 |
6.5.2 短期交通流预测 | 第104-107页 |
6.6 本章小结 | 第107-108页 |
结论 | 第108-110页 |
论文内容总结 | 第108-109页 |
工作展望 | 第109-110页 |
参考文献 | 第110-122页 |
附录 | 第122-124页 |
攻读博士期间发表学术论文 | 第122-124页 |
致谢 | 第124页 |