摘要 | 第1-5页 |
ABSTRACT | 第5-12页 |
第一章 绪论 | 第12-17页 |
·研究的背景和意义 | 第12-13页 |
·研究现状 | 第13-14页 |
·机器学习的国内研究现状 | 第13-14页 |
·机器学习的国外研究现状 | 第14页 |
·研究内容和创新 | 第14-15页 |
·论文组织 | 第15-17页 |
第二章 背景知识 | 第17-23页 |
·图论 | 第17-18页 |
·图的概念 | 第17页 |
·超图 | 第17-18页 |
·统计学习理论 | 第18页 |
·机器学习理论 | 第18-21页 |
·聚类 | 第19页 |
·分类 | 第19-20页 |
·降维 | 第20-21页 |
·ROC 曲线描述 | 第21-23页 |
第三章 高斯核参数的优化:复杂的问题,简单的解决方案 | 第23-30页 |
·背景介绍及动机 | 第23-24页 |
·选择最有参数的理论 | 第24-27页 |
·相关工作 | 第24-25页 |
·优化高斯核参数 | 第25-27页 |
·结果和讨论 | 第27-29页 |
·非监督学习:kernel k-means 的聚类 | 第27-28页 |
·监督学习:基于 DC (difference of convex functions) 算法的分类 | 第28-29页 |
·本章小结 | 第29-30页 |
第四章 鲁棒的ART-2 网络聚类学习框架 | 第30-38页 |
·背景及动机 | 第30-31页 |
·ART-2 网络 | 第31页 |
·鲁棒的ART-2 网络 | 第31-34页 |
·自适应阈值参数的模型 | 第32-34页 |
·类别数受限的模型 | 第34页 |
·网络的时间复杂度 | 第34页 |
·结果与讨论 | 第34-37页 |
·合成数据集 | 第35页 |
·几种聚类算法的比较 | 第35-37页 |
·本章小结 | 第37-38页 |
第五章 基于NCUTS 的多核子类判别分析 | 第38-49页 |
·背景介绍及动机 | 第38-39页 |
·SDA 算法和KSDA 算法介绍 | 第39-40页 |
·SDA 算法 | 第39页 |
·KSDA 算法 | 第39-40页 |
·基于NCUTS 的多核子类判别分析 | 第40-45页 |
·基于Ncuts 的最优子类划分 | 第41-42页 |
·多核函数的定义 | 第42-43页 |
·多核的SDA 算法及优化 | 第43-45页 |
·收敛性问题和时间复杂度 | 第45页 |
·结果与讨论 | 第45-48页 |
·MKSDA 算法的有效性和收敛性 | 第45-46页 |
·分类的实验 | 第46-48页 |
·本章小结 | 第48-49页 |
第六章 基于扩散映射和DHKNN算法的芋螺毒素超家族预测 | 第49-56页 |
·背景介绍及动机 | 第49-50页 |
·材料和方法 | 第50-53页 |
·基准数据集 | 第50页 |
·特征提取 | 第50-51页 |
·扩散映射 | 第51-52页 |
·改进的dHKNN 子空间分类器 | 第52-53页 |
·结果和讨论 | 第53-55页 |
·本章小结 | 第55-56页 |
第七章 基于超图和马尔科夫链的降维方法 | 第56-66页 |
·动机及目的 | 第56页 |
·相关的研究 | 第56-58页 |
·直接的超图模型 | 第56-57页 |
·Markov 随机行走 | 第57-58页 |
·DRHM 模型 | 第58-61页 |
·节点之间的相似性度量 | 第58-59页 |
·降维方法的最优化问题 | 第59-60页 |
·最优化过程和数据投影 | 第60-61页 |
·结果与讨论 | 第61-64页 |
·FCPS 数据集 | 第61页 |
·分类 | 第61-63页 |
·手写数字数据集上的聚类 | 第63-64页 |
·本章小结 | 第64-66页 |
第八章 总结与展望 | 第66-68页 |
·总结 | 第66-67页 |
·展望 | 第67-68页 |
附录A 缩写对照表 | 第68-69页 |
参考文献 | 第69-77页 |
致谢 | 第77-78页 |
攻读硕士学位期间已发表或录用的论文 | 第78-80页 |