中文摘要 | 第1-5页 |
英文摘要 | 第5-10页 |
第1章 绪论 | 第10-20页 |
1.1 神经网络技术的研究热潮 | 第10-11页 |
1.2 多层前向网络的研究、应用和学习中遇到的困难 | 第11-13页 |
1.3 优化技术在神经网络训练中的应用 | 第13-15页 |
1.3.1 改进的BP算法 | 第13-14页 |
1.3.2 智能学习算法 | 第14页 |
1.3.3 混合学习策略 | 第14-15页 |
1.4 经验风险最小化和统计学习理论 | 第15-18页 |
1.4.1 神经网络设计的困难和解决方法 | 第15-17页 |
1.4.2 统计学习理论和支持向量机 | 第17-18页 |
1.5 本课题研究内容 | 第18-20页 |
第2章 前向神经网络模型与BP算法 | 第20-32页 |
2.1 多层前向神经网络的模型 | 第20-21页 |
2.2 前向神经网络的逼近能力 | 第21-22页 |
2.3 BP学习算法 | 第22-30页 |
2.3.1 标准BP算法原理 | 第22-25页 |
2.3.2 标准BP算法的缺陷、原因和改进 | 第25-26页 |
2.3.3 神经网络梯度学习算法的统一描述 | 第26-30页 |
2.4 本章小结 | 第30-32页 |
第3章 全局优化算法 | 第32-44页 |
3.1 概述 | 第32页 |
3.2 遗传算法 | 第32-39页 |
3.2.1 遗传算法的特点与流程 | 第32-34页 |
3.2.2 遗传算法的设计和执行策略 | 第34-39页 |
3.3 遗传算法性能的改进 | 第39-43页 |
3.3.1 自适应遗传算法 | 第39-40页 |
3.3.2 模拟退火法 | 第40-41页 |
3.3.3 一类GASA混合优化算法 | 第41-43页 |
3.4 本章小结 | 第43-44页 |
第4章 前向网络的设计和推广性能 | 第44-58页 |
4.1 神经网络设计的困难和原因 | 第44-47页 |
4.1.1 神经网络设计的困难 | 第44-45页 |
4.1.2 机器学习问题的表示 | 第45-46页 |
4.1.3 经验风险最小化 | 第46-47页 |
4.2 统计学习理论 | 第47-52页 |
4.2.1 学习过程一致性的条件和VC维 | 第47-50页 |
4.2.2 推广性的界和结构风险最小化 | 第50-52页 |
4.3 正规化方法 | 第52-57页 |
4.3.1 网络模型选择的定性分析 | 第52-53页 |
4.3.2 贝叶斯正规化理论 | 第53-56页 |
4.3.3 最小描述长度方法 | 第56-57页 |
4.4 本章小结 | 第57-58页 |
第5章 支持向量机 | 第58-73页 |
5.1 最优分类面 | 第58-61页 |
5.1.1 广义最优分类面 | 第58-60页 |
5.1.2 高维空间的最优分类面 | 第60-61页 |
5.2 支持向量机 | 第61-65页 |
5.2.1 用于分类的支持向量机 | 第61-62页 |
5.2.2 用于函数拟合的支持向量机 | 第62-63页 |
5.2.3 支持向量机的特点 | 第63-65页 |
5.3 支持向量机训练算法 | 第65-68页 |
5.3.1 二次规划支持向量机 | 第65-66页 |
5.3.2 支持向量机训练算法 | 第66-68页 |
5.4 多种形式的支持向量机 | 第68-72页 |
5.4.1 L2范数形式的支持向量机 | 第68-69页 |
5.4.2 线性规划支持向量机 | 第69页 |
5.4.3 v-SVM | 第69-71页 |
5.4.4 最小二乘支持向量机 | 第71-72页 |
5.5 本章小结 | 第72-73页 |
第6章 神经网络学习算法性能的仿真研究 | 第73-90页 |
6.1 算法实现的简单介绍 | 第73-74页 |
6.2 梯度算法在神经网络训练中的性能研究 | 第74-78页 |
6.2.1 仿真内容 | 第74-75页 |
6.2.2 仿真结果和结果分析 | 第75-78页 |
6.3 遗传算法在神经网络训练中的性能研究 | 第78-83页 |
6.3.1 研究内容和一种改进遗传算法的设计 | 第78-80页 |
6.3.2 仿真结果和结果分析 | 第80-83页 |
6.4 神经网络学习和支持向量机学习的性能比较 | 第83-86页 |
6.5 支持向量机在系统建模中的应用研究 | 第86-89页 |
6.6 本章小结 | 第89-90页 |
结论 | 第90-93页 |
参考文献 | 第93-99页 |
攻读硕士学位期间承担的科研任务与主要成果 | 第99-100页 |
致谢 | 第100-101页 |
作者简介 | 第101页 |