第一章 绪论 | 第1-15页 |
·引言 | 第9页 |
·研究背景 | 第9-13页 |
·什么是机器学习 | 第9-10页 |
·机器学习问题的回顾 | 第10-11页 |
·机器学习方法及应用领域 | 第11-12页 |
·理论背景 | 第12-13页 |
·问题的提出及学术意义 | 第13页 |
·研究工作的学术意义 | 第13页 |
·问题的提出 | 第13页 |
·本论文的主要工作和内容安排 | 第13-15页 |
第二章 神经网络 | 第15-25页 |
·神经网络概述 | 第15-17页 |
·神经元模型 | 第17-19页 |
·神经网络的结构、算法、学习规则 | 第19-21页 |
·神经网络的结构和算法 | 第19-21页 |
·神经网络的学习规则 | 第21页 |
·典型的神经网络 | 第21-25页 |
·多层前馈网络 | 第22页 |
·径向基函数 | 第22页 |
·Hopfield模型 | 第22-23页 |
·小脑模型神经网络 | 第23页 |
·大脑自组织特征映射模型Kohonen网络 | 第23-24页 |
·基于概率式学习的Boltzmann机模型 | 第24-25页 |
第三章 模糊系统 | 第25-31页 |
·模糊逻辑基本知识 | 第25-27页 |
·模糊IF-THEN规则和模糊推理系统 | 第27-31页 |
·模糊IF-THEN规则 | 第27-28页 |
·模糊推理系统 | 第28-30页 |
·一个典型的模糊推理系统-(Takagi-Sugeno)推理方法 | 第30-31页 |
第四章 支持向量机 | 第31-41页 |
·统计学习理论 | 第31-36页 |
·经验风险最小化原则 | 第31-32页 |
·学习过程一致性的条件 | 第32-33页 |
·学习理论的三个里程碑(以指示函数为例) | 第33-34页 |
·边界理论与VC维 | 第34页 |
·推广性的界 | 第34-35页 |
·结构风险最小化原则 | 第35页 |
·统计学习理论研究的主要困难和待进行的研究工作 | 第35-36页 |
·最优超平面 | 第36-39页 |
·线性判别函数 | 第36-37页 |
·构造最优超平面 | 第37-39页 |
·支持向量机~([3][6][7]) | 第39-41页 |
第五章 模糊系统和神经网络的内在联系 | 第41-49页 |
·模糊系统和神经网络的区别 | 第41-42页 |
·模糊系统和神经网络的内在一致性 | 第42-45页 |
·模糊系统和神经网络的结合 | 第45-49页 |
·几种典型的模糊神经网络 | 第46-47页 |
·模糊神经网络的特点 | 第47页 |
·模糊神经网络的学习过程 | 第47-49页 |
第六章 神经网络和支持向量机的内在联系 | 第49-53页 |
·神经网络和支持向量机的区别 | 第49-50页 |
·神经网络和支持向量机的内在一致性 | 第50-52页 |
·正则化神经网络 | 第50-51页 |
·正则化神经网络和支持向量机等价性 | 第51-52页 |
·神经网络和支持向量机的结合 | 第52-53页 |
第七章 模糊系统和支持向量机的内在联系 | 第53-57页 |
·模糊系统和支持向量机的区别 | 第53页 |
·模糊系统和支持向量机的内在一致性 | 第53-55页 |
·模糊系统和支持向量机的相互结合 46第八章 神经网络、模糊系统、支持向量机的统一 | 第55-57页 |
第八章 神经网络、模糊系统、支持向量机的统一 | 第57-67页 |
·神经网络、模糊系统、支持向量机三种机器学习方法的数学模型 | 第57-58页 |
·神经网络、模糊系统、支持向量机的统一 | 第58-64页 |
·加权径向基函数 | 第59-61页 |
·加权径向基函数的统一方式表示 | 第59-60页 |
·加权径向基函数学习算法 | 第60-61页 |
·正则加权径向基函数 | 第61-64页 |
·不适定问题 | 第61-62页 |
·正则化理论 | 第62页 |
·正则加权径向基函数的统一方式表示 | 第62-63页 |
·正则加权径向基函数学习算法 | 第63-64页 |
·仿真实例 | 第64-67页 |
第九章 结束语 | 第67-68页 |
参考文献 | 第68-70页 |
致谢 | 第70-71页 |
个人简历 | 第71页 |
发表的学术论文 | 第71页 |